The Fort Worth Press - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

USD -
AED 3.673028
AFN 67.50031
ALL 93.450112
AMD 388.379901
ANG 1.797007
AOA 911.999876
ARS 1007.249995
AUD 1.549667
AWG 1.8025
AZN 1.697483
BAM 1.854894
BBD 2.013135
BDT 119.148331
BGN 1.866613
BHD 0.376928
BIF 2895
BMD 1
BND 1.342539
BOB 6.890305
BRL 5.820097
BSD 0.997032
BTN 84.045257
BWP 13.603255
BYN 3.263026
BYR 19600
BZD 2.009882
CAD 1.407955
CDF 2870.999706
CHF 0.888203
CLF 0.035425
CLP 977.490134
CNY 7.25205
CNH 7.26023
COP 4403.72
CRC 509.469571
CUC 1
CUP 26.5
CVE 105.449921
CZK 24.148024
DJF 177.719544
DKK 7.12451
DOP 60.402589
DZD 133.979029
EGP 49.623504
ERN 15
ETB 123.449885
EUR 0.955145
FJD 2.2806
FKP 0.789317
GBP 0.79762
GEL 2.730139
GGP 0.789317
GHS 15.699388
GIP 0.789317
GMD 70.99985
GNF 8629.999717
GTQ 7.695226
GYD 208.598092
HKD 7.78304
HNL 25.225005
HRK 7.133259
HTG 130.860533
HUF 392.407502
IDR 15923.3
ILS 3.645425
IMP 0.789317
INR 84.302396
IQD 1310.5
IRR 42087.502706
ISK 138.609457
JEP 0.789317
JMD 157.444992
JOD 0.7093
JPY 153.391502
KES 129.499483
KGS 86.802594
KHR 4050.00021
KMF 468.950188
KPW 899.999621
KRW 1397.560198
KWD 0.30775
KYD 0.830915
KZT 497.847158
LAK 21965.00031
LBP 89549.999527
LKR 290.349197
LRD 179.82502
LSL 18.039403
LTL 2.952741
LVL 0.60489
LYD 4.894975
MAD 10.033503
MDL 18.222083
MGA 4679.000056
MKD 58.775491
MMK 3247.960992
MNT 3397.999946
MOP 7.992375
MRU 39.915016
MUR 47.319865
MVR 15.449766
MWK 1735.999806
MXN 20.822975
MYR 4.4575
MZN 63.889626
NAD 18.039728
NGN 1692.269994
NIO 36.759918
NOK 11.18857
NPR 134.472032
NZD 1.718331
OMR 0.385007
PAB 0.997069
PEN 3.77825
PGK 3.969898
PHP 58.947985
PKR 277.749776
PLN 4.11615
PYG 7780.875965
QAR 3.640604
RON 4.753102
RSD 111.746003
RUB 105.4915
RWF 1371
SAR 3.757123
SBD 8.39059
SCR 13.598931
SDG 601.498985
SEK 11.01112
SGD 1.348255
SHP 0.789317
SLE 22.700902
SLL 20969.504736
SOS 571.499774
SRD 35.405043
STD 20697.981008
SVC 8.724393
SYP 2512.529858
SZL 18.040157
THB 34.740094
TJS 10.653933
TMT 3.51
TND 3.16725
TOP 2.342094
TRY 34.650415
TTD 6.779275
TWD 32.494499
TZS 2644.99969
UAH 41.427826
UGX 3694.079041
UYU 42.488619
UZS 12829.999758
VES 46.580729
VND 25415
VUV 118.722009
WST 2.791591
XAF 622.125799
XAG 0.032903
XAU 0.000381
XCD 2.70255
XDR 0.762694
XOF 627.497895
XPF 114.049829
YER 249.925019
ZAR 18.20957
ZMK 9001.202255
ZMW 27.49457
ZWL 321.999592
  • AEX

    -4.2200

    875.14

    -0.48%

  • BEL20

    -61.1800

    4187.13

    -1.44%

  • PX1

    -63.1400

    7194.51

    -0.87%

  • ISEQ

    -28.9100

    9606.36

    -0.3%

  • OSEBX

    -19.7200

    1452.05

    -1.34%

  • PSI20

    -23.1800

    6415.4

    -0.36%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -46.0100

    2960.9

    -1.53%

  • N150

    -33.4500

    3278.46

    -1.01%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: © AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

J.M.Ellis--TFWP