The Fort Worth Press - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.672955
AFN 68.420651
ALL 93.767284
AMD 390.49835
ANG 1.806877
AOA 912.000203
ARS 1007.235601
AUD 1.544258
AWG 1.8025
AZN 1.696037
BAM 1.865047
BBD 2.024202
BDT 119.800507
BGN 1.867575
BHD 0.376923
BIF 2961.779795
BMD 1
BND 1.349913
BOB 6.927922
BRL 5.812047
BSD 1.002517
BTN 84.506895
BWP 13.677455
BYN 3.280949
BYR 19600
BZD 2.020865
CAD 1.407515
CDF 2871.000372
CHF 0.885798
CLF 0.035433
CLP 977.678349
CNY 7.25205
CNH 7.26762
COP 4403.8
CRC 512.27769
CUC 1
CUP 26.5
CVE 105.148475
CZK 24.123202
DJF 178.523068
DKK 7.118499
DOP 60.439613
DZD 133.965973
EGP 49.589098
ERN 15
ETB 125.456964
EUR 0.954365
FJD 2.27435
FKP 0.789317
GBP 0.79565
GEL 2.729983
GGP 0.789317
GHS 15.740087
GIP 0.789317
GMD 71.000284
GNF 8638.643602
GTQ 7.737494
GYD 209.743864
HKD 7.782235
HNL 25.356169
HRK 7.133259
HTG 131.578696
HUF 391.760961
IDR 15929.75
ILS 3.647675
IMP 0.789317
INR 84.468495
IQD 1313.295062
IRR 42087.496546
ISK 138.479986
JEP 0.789317
JMD 158.306792
JOD 0.709302
JPY 152.33101
KES 129.650182
KGS 86.77429
KHR 4024.221618
KMF 468.949713
KPW 899.999621
KRW 1397.629951
KWD 0.30769
KYD 0.835447
KZT 500.581695
LAK 21938.473862
LBP 89777.620964
LKR 291.944005
LRD 179.953464
LSL 18.140579
LTL 2.95274
LVL 0.60489
LYD 4.905308
MAD 10.049969
MDL 18.321477
MGA 4681.212214
MKD 58.709862
MMK 3247.960992
MNT 3397.999946
MOP 8.03597
MRU 39.876031
MUR 46.829876
MVR 15.449704
MWK 1738.409017
MXN 20.706475
MYR 4.451996
MZN 63.900113
NAD 18.140579
NGN 1687.510358
NIO 36.894704
NOK 11.171615
NPR 135.21065
NZD 1.704361
OMR 0.384986
PAB 1.002522
PEN 3.783114
PGK 4.041348
PHP 58.893503
PKR 278.556157
PLN 4.109081
PYG 7823.317376
QAR 3.655332
RON 4.7501
RSD 111.679549
RUB 105.493448
RWF 1381.286594
SAR 3.756955
SBD 8.39059
SCR 13.142933
SDG 601.504929
SEK 10.995025
SGD 1.347325
SHP 0.789317
SLE 22.69826
SLL 20969.504736
SOS 572.921633
SRD 35.40499
STD 20697.981008
SVC 8.772147
SYP 2512.529858
SZL 18.146015
THB 34.729932
TJS 10.712147
TMT 3.51
TND 3.168043
TOP 2.342099
TRY 34.66067
TTD 6.816318
TWD 32.559402
TZS 2644.999801
UAH 41.654588
UGX 3714.263918
UYU 42.721187
UZS 12846.871245
VES 46.695348
VND 25410
VUV 118.722009
WST 2.791591
XAF 625.519234
XAG 0.032766
XAU 0.000379
XCD 2.70255
XDR 0.766883
XOF 625.519234
XPF 113.726089
YER 249.925031
ZAR 18.15343
ZMK 9001.201488
ZMW 27.644804
ZWL 321.999592
  • AEX

    -4.2200

    875.14

    -0.48%

  • BEL20

    -61.1800

    4187.13

    -1.44%

  • PX1

    -63.1400

    7194.51

    -0.87%

  • ISEQ

    -28.9100

    9606.36

    -0.3%

  • OSEBX

    -19.7200

    1452.05

    -1.34%

  • PSI20

    -23.1800

    6415.4

    -0.36%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -46.0100

    2960.9

    -1.53%

  • N150

    -33.4500

    3278.46

    -1.01%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

K.Ibarra--TFWP