The Fort Worth Press - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.67301
AFN 68.413816
ALL 89.922325
AMD 385.921778
ANG 1.799539
AOA 912.500483
ARS 974.727903
AUD 1.486625
AWG 1.80125
AZN 1.703276
BAM 1.780979
BBD 2.01609
BDT 119.317768
BGN 1.779835
BHD 0.376848
BIF 2905.105767
BMD 1
BND 1.302172
BOB 6.914262
BRL 5.497401
BSD 0.998484
BTN 83.850112
BWP 13.207427
BYN 3.267173
BYR 19600
BZD 2.012721
CAD 1.364285
CDF 2875.000164
CHF 0.85512
CLF 0.033573
CLP 926.369731
CNY 7.053301
CNH 7.05154
COP 4214.5
CRC 519.227442
CUC 1
CUP 26.5
CVE 100.408866
CZK 23.036004
DJF 177.805703
DKK 6.78371
DOP 60.300318
DZD 132.83239
EGP 48.512703
ERN 15
ETB 119.287178
EUR 0.909755
FJD 2.221301
FKP 0.761559
GBP 0.763555
GEL 2.745025
GGP 0.761559
GHS 15.826401
GIP 0.761559
GMD 69.000049
GNF 8617.973538
GTQ 7.726631
GYD 208.811973
HKD 7.772065
HNL 24.828578
HRK 6.799011
HTG 131.674202
HUF 364.970388
IDR 15654.45
ILS 3.776195
IMP 0.761559
INR 83.960101
IQD 1307.994209
IRR 42087.50116
ISK 135.109716
JEP 0.761559
JMD 157.871732
JOD 0.708499
JPY 147.813978
KES 128.81008
KGS 84.700824
KHR 4062.231085
KMF 448.300203
KPW 899.999433
KRW 1347.750331
KWD 0.30651
KYD 0.832112
KZT 484.18733
LAK 21804.655059
LBP 89401.192698
LKR 292.962774
LRD 192.711511
LSL 17.381984
LTL 2.95274
LVL 0.60489
LYD 4.76158
MAD 9.811185
MDL 17.540857
MGA 4589.453363
MKD 55.976345
MMK 3247.960992
MNT 3397.999955
MOP 7.988399
MRU 39.521203
MUR 46.269668
MVR 15.350477
MWK 1731.425918
MXN 19.29291
MYR 4.289023
MZN 63.897402
NAD 17.381826
NGN 1618.809919
NIO 36.742945
NOK 10.65183
NPR 134.157735
NZD 1.63372
OMR 0.385019
PAB 0.998484
PEN 3.719693
PGK 3.978437
PHP 56.908501
PKR 277.234126
PLN 3.93055
PYG 7784.804651
QAR 3.639543
RON 4.528502
RSD 106.453013
RUB 96.33285
RWF 1354.252985
SAR 3.7555
SBD 8.278713
SCR 13.613251
SDG 601.50163
SEK 10.33681
SGD 1.303165
SHP 0.761559
SLE 22.847303
SLL 20969.494858
SOS 570.676671
SRD 31.480502
STD 20697.981008
SVC 8.737263
SYP 2512.529936
SZL 17.372538
THB 33.474015
TJS 10.624038
TMT 3.51
TND 3.069407
TOP 2.3421
TRY 34.28045
TTD 6.771265
TWD 32.228015
TZS 2725.000269
UAH 41.139168
UGX 3669.758188
UYU 41.62455
UZS 12755.940646
VEF 3622552.534434
VES 36.993281
VND 24842.5
VUV 118.722009
WST 2.797463
XAF 597.318266
XAG 0.032082
XAU 0.000379
XCD 2.70255
XDR 0.742781
XOF 597.320985
XPF 108.600334
YER 250.302353
ZAR 17.50099
ZMK 9001.179251
ZMW 26.465058
ZWL 321.999592
  • AEX

    -2.2800

    910.53

    -0.25%

  • BEL20

    -37.9500

    4226.42

    -0.89%

  • PX1

    -40.1500

    7535.84

    -0.53%

  • ISEQ

    49.1200

    9679.98

    +0.51%

  • OSEBX

    -6.9200

    1435.58

    -0.48%

  • PSI20

    -12.7200

    6680.46

    -0.19%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    3.0800

    2567.84

    +0.12%

  • N150

    -17.0600

    3328.49

    -0.51%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

K.Ibarra--TFWP