The Fort Worth Press - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

USD -
AED 3.673042
AFN 68.112673
ALL 94.198378
AMD 389.366092
ANG 1.801814
AOA 913.000367
ARS 1003.735016
AUD 1.538462
AWG 1.8025
AZN 1.70397
BAM 1.877057
BBD 2.018523
BDT 119.468305
BGN 1.87679
BHD 0.376794
BIF 2953.116752
BMD 1
BND 1.347473
BOB 6.908201
BRL 5.801041
BSD 0.99976
BTN 84.384759
BWP 13.658045
BYN 3.27175
BYR 19600
BZD 2.015164
CAD 1.39805
CDF 2871.000362
CHF 0.89358
CLF 0.035441
CLP 977.925332
CNY 7.243041
CNH 7.25914
COP 4389.749988
CRC 509.237487
CUC 1
CUP 26.5
CVE 105.825615
CZK 24.326204
DJF 178.031575
DKK 7.158304
DOP 60.252411
DZD 134.221412
EGP 49.650175
ERN 15
ETB 122.388982
EUR 0.95985
FJD 2.27595
FKP 0.789317
GBP 0.798053
GEL 2.740391
GGP 0.789317
GHS 15.795384
GIP 0.789317
GMD 71.000355
GNF 8617.496041
GTQ 7.717261
GYD 209.15591
HKD 7.78445
HNL 25.264168
HRK 7.133259
HTG 131.234704
HUF 395.000354
IDR 15943.55
ILS 3.70204
IMP 0.789317
INR 84.43625
IQD 1309.659773
IRR 42075.000352
ISK 139.680386
JEP 0.789317
JMD 159.268679
JOD 0.709104
JPY 154.770385
KES 129.468784
KGS 86.503799
KHR 4025.145161
KMF 472.503794
KPW 899.999621
KRW 1404.510383
KWD 0.30785
KYD 0.833149
KZT 499.179423
LAK 21959.786938
LBP 89526.368828
LKR 290.973655
LRD 180.450118
LSL 18.040693
LTL 2.95274
LVL 0.60489
LYD 4.882192
MAD 10.057392
MDL 18.23504
MGA 4666.25078
MKD 59.052738
MMK 3247.960992
MNT 3397.999946
MOP 8.015644
MRU 39.77926
MUR 46.850378
MVR 15.460378
MWK 1733.576467
MXN 20.428504
MYR 4.468039
MZN 63.910377
NAD 18.040693
NGN 1696.703725
NIO 36.786794
NOK 11.072604
NPR 135.016076
NZD 1.714237
OMR 0.384846
PAB 0.99976
PEN 3.790969
PGK 4.025145
PHP 58.939038
PKR 277.626662
PLN 4.16352
PYG 7804.59715
QAR 3.646048
RON 4.778204
RSD 112.294256
RUB 104.308748
RWF 1364.748788
SAR 3.754429
SBD 8.383555
SCR 13.699038
SDG 601.503676
SEK 11.036204
SGD 1.346604
SHP 0.789317
SLE 22.730371
SLL 20969.504736
SOS 571.332598
SRD 35.494038
STD 20697.981008
SVC 8.748021
SYP 2512.529858
SZL 18.034455
THB 34.480369
TJS 10.647152
TMT 3.5
TND 3.17616
TOP 2.342104
TRY 34.552504
TTD 6.790153
TWD 32.583504
TZS 2659.340659
UAH 41.35995
UGX 3694.035222
UYU 42.516436
UZS 12825.951341
VES 46.55914
VND 25419
VUV 118.722009
WST 2.791591
XAF 629.547483
XAG 0.031938
XAU 0.000369
XCD 2.70255
XDR 0.760497
XOF 629.547483
XPF 114.458467
YER 249.925037
ZAR 18.15566
ZMK 9001.203587
ZMW 27.617448
ZWL 321.999592
  • AEX

    13.6800

    879.8

    +1.58%

  • BEL20

    69.4500

    4228.29

    +1.67%

  • PX1

    41.8400

    7255.01

    +0.58%

  • ISEQ

    17.2700

    9613.97

    +0.18%

  • OSEBX

    3.8100

    1468.66

    +0.26%

  • PSI20

    48.3400

    6409

    +0.76%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    86.5000

    2989.04

    +2.98%

  • N150

    24.5300

    3295.3

    +0.75%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers / Photo: © AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

L.Rodriguez--TFWP