The Fort Worth Press - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.673026
AFN 67.493572
ALL 91.649703
AMD 387.509486
ANG 1.803294
AOA 912.539919
ARS 997.745304
AUD 1.53354
AWG 1.8015
AZN 1.702199
BAM 1.842782
BBD 2.020296
BDT 119.572592
BGN 1.845218
BHD 0.376915
BIF 2898
BMD 1
BND 1.339138
BOB 6.938791
BRL 5.783102
BSD 1.000584
BTN 84.49608
BWP 13.612807
BYN 3.274442
BYR 19600
BZD 2.01681
CAD 1.395551
CDF 2868.999751
CHF 0.8823
CLF 0.03573
CLP 985.894813
CNY 7.232401
COP 4441.75
CRC 512.023217
CUC 1
CUP 26.5
CVE 104.34992
CZK 23.927301
DJF 177.7198
DKK 7.029215
DOP 60.249675
DZD 133.442023
EGP 49.207798
ETB 121.502652
EUR 0.94236
FJD 2.266102
GBP 0.785105
GEL 2.739902
GHS 16.415004
GMD 71.502513
GNF 8630.99973
GTQ 7.732172
GYD 209.320293
HKD 7.778955
HNL 25.060227
HTG 131.605231
HUF 387.072502
IDR 15798.75
ILS 3.75608
INR 84.391397
IQD 1310
IRR 42104.999464
ISK 138.989583
JMD 158.989193
JOD 0.709102
JPY 154.766006
KES 129.55751
KGS 86.198339
KHR 4055.000019
KMF 460.375001
KRW 1408.420172
KWD 0.30761
KYD 0.833804
KZT 496.541912
LAK 21959.999945
LBP 89599.999941
LKR 292.59008
LRD 185.349642
LSL 18.169716
LTL 2.95274
LVL 0.60489
LYD 4.864972
MAD 9.921031
MDL 17.910448
MGA 4640.000309
MKD 58.059228
MMK 3247.960992
MOP 8.016734
MRU 39.898106
MUR 47.109657
MVR 15.459983
MWK 1735.000308
MXN 20.610401
MYR 4.43698
MZN 63.925002
NAD 18.169738
NGN 1672.680203
NIO 36.775012
NOK 11.091805
NPR 135.193351
NZD 1.690425
OMR 0.385019
PAB 1.000584
PEN 3.770333
PGK 4.01475
PHP 58.757994
PKR 278.0501
PLN 4.102701
PYG 7817.549678
QAR 3.64075
RON 4.689304
RSD 110.232022
RUB 98.251442
RWF 1362.5
SAR 3.757412
SBD 8.340754
SCR 13.59194
SDG 601.502086
SEK 10.91916
SGD 1.339205
SLE 22.850136
SOS 570.999924
SRD 35.234957
STD 20697.981008
SVC 8.755465
SZL 17.630134
THB 34.861012
TJS 10.635517
TMT 3.51
TND 3.1475
TOP 2.342102
TRY 34.365804
TTD 6.799337
TWD 32.456502
TZS 2661.864961
UAH 41.439986
UGX 3676.692296
UYU 42.184909
UZS 12829.999731
VES 44.69606
VND 25350
XAF 618.080997
XCD 2.70255
XDR 0.753807
XOF 607.999825
XPF 111.950067
YER 249.825005
ZAR 18.139402
ZMK 9001.203435
ZMW 27.24069
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

W.Knight--TFWP