The Fort Worth Press - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

USD -
AED 3.67295
AFN 68.500744
ALL 90.24989
AMD 386.929694
ANG 1.801327
AOA 912.497004
ARS 974.750274
AUD 1.479892
AWG 1.80125
AZN 1.701353
BAM 1.782749
BBD 2.018112
BDT 119.436317
BGN 1.78179
BHD 0.376993
BIF 2892.5
BMD 1
BND 1.303478
BOB 6.921194
BRL 5.483397
BSD 0.999471
BTN 83.93304
BWP 13.22073
BYN 3.270747
BYR 19600
BZD 2.014583
CAD 1.361645
CDF 2874.999913
CHF 0.85438
CLF 0.033573
CLP 926.369726
CNY 7.0187
CNH 7.06714
COP 4212.82
CRC 519.710158
CUC 1
CUP 26.5
CVE 100.849625
CZK 23.114502
DJF 177.720032
DKK 6.79021
DOP 60.301071
DZD 133.00315
EGP 48.4078
ERN 15
ETB 120.450068
EUR 0.91088
FJD 2.211983
FKP 0.761559
GBP 0.76421
GEL 2.744989
GGP 0.761559
GHS 15.885019
GIP 0.761559
GMD 68.999809
GNF 8625.000076
GTQ 7.734273
GYD 209.019438
HKD 7.766015
HNL 24.980369
HRK 6.799011
HTG 131.806228
HUF 366.342498
IDR 15730
ILS 3.793195
IMP 0.761559
INR 83.999901
IQD 1309.5
IRR 42087.500226
ISK 135.269891
JEP 0.761559
JMD 158.030025
JOD 0.708698
JPY 148.060048
KES 129.000272
KGS 84.699903
KHR 4062.99977
KMF 448.309376
KPW 899.999433
KRW 1344.86003
KWD 0.30644
KYD 0.83295
KZT 484.668392
LAK 22069.999983
LBP 89600.000073
LKR 293.232466
LRD 193.049682
LSL 17.480117
LTL 2.95274
LVL 0.60489
LYD 4.764964
MAD 9.822499
MDL 17.561402
MGA 4560.999911
MKD 56.104168
MMK 3247.960992
MNT 3397.999955
MOP 7.996263
MRU 39.750133
MUR 46.579969
MVR 15.349745
MWK 1736.000004
MXN 19.30416
MYR 4.283005
MZN 63.892558
NAD 17.479782
NGN 1619.603383
NIO 36.749748
NOK 10.6526
NPR 134.282459
NZD 1.633306
OMR 0.38504
PAB 0.999494
PEN 3.734702
PGK 3.98275
PHP 56.817501
PKR 277.550238
PLN 3.938571
PYG 7792.574767
QAR 3.64025
RON 4.533901
RSD 106.575002
RUB 96.198721
RWF 1335
SAR 3.756088
SBD 8.278713
SCR 13.882263
SDG 601.500999
SEK 10.357665
SGD 1.303865
SHP 0.761559
SLE 22.847303
SLL 20969.494858
SOS 571.000099
SRD 31.480504
STD 20697.981008
SVC 8.746023
SYP 2512.529936
SZL 17.479832
THB 33.446498
TJS 10.634642
TMT 3.51
TND 3.070006
TOP 2.342104
TRY 34.24878
TTD 6.77756
TWD 32.171501
TZS 2724.999708
UAH 41.181355
UGX 3673.437763
UYU 41.665527
UZS 12799.99967
VEF 3622552.534434
VES 36.990118
VND 24855
VUV 118.722009
WST 2.797463
XAF 597.919904
XAG 0.031499
XAU 0.000378
XCD 2.702551
XDR 0.743472
XOF 597.497294
XPF 109.14962
YER 250.346685
ZAR 17.36736
ZMK 9001.179928
ZMW 26.491835
ZWL 321.999592
  • AEX

    1.0000

    912.77

    +0.11%

  • BEL20

    -26.6000

    4264.18

    -0.62%

  • PX1

    34.6900

    7576.02

    +0.46%

  • ISEQ

    23.0600

    9630.95

    +0.24%

  • OSEBX

    -6.9600

    1442.48

    -0.48%

  • PSI20

    45.8700

    6693.16

    +0.69%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    3.0800

    2567.84

    +0.12%

  • N150

    -5.0300

    3345.5

    -0.15%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: © AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

J.M.Ellis--TFWP