The Fort Worth Press - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.673042
AFN 68.112673
ALL 94.198378
AMD 389.366092
ANG 1.801814
AOA 913.000367
ARS 1003.850089
AUD 1.538462
AWG 1.8025
AZN 1.70397
BAM 1.877057
BBD 2.018523
BDT 119.468305
BGN 1.877115
BHD 0.376794
BIF 2953.116752
BMD 1
BND 1.347473
BOB 6.908201
BRL 5.801041
BSD 0.99976
BTN 84.384759
BWP 13.658045
BYN 3.27175
BYR 19600
BZD 2.015164
CAD 1.39805
CDF 2871.000362
CHF 0.89358
CLF 0.035441
CLP 977.925332
CNY 7.243041
CNH 7.25914
COP 4389.749988
CRC 509.237487
CUC 1
CUP 26.5
CVE 105.825615
CZK 24.326204
DJF 178.031575
DKK 7.158304
DOP 60.252411
DZD 134.27504
EGP 49.650175
ERN 15
ETB 122.388982
EUR 0.95985
FJD 2.27595
FKP 0.789317
GBP 0.798053
GEL 2.740391
GGP 0.789317
GHS 15.795384
GIP 0.789317
GMD 71.000355
GNF 8617.496041
GTQ 7.717261
GYD 209.15591
HKD 7.78445
HNL 25.264168
HRK 7.133259
HTG 131.234704
HUF 395.000354
IDR 15943.55
ILS 3.70204
IMP 0.789317
INR 84.43625
IQD 1309.659773
IRR 42075.000352
ISK 139.680386
JEP 0.789317
JMD 159.268679
JOD 0.709104
JPY 154.770385
KES 129.468784
KGS 86.503799
KHR 4025.145161
KMF 472.503794
KPW 899.999621
KRW 1404.510383
KWD 0.30785
KYD 0.833149
KZT 499.179423
LAK 21959.786938
LBP 89526.368828
LKR 290.973655
LRD 180.450118
LSL 18.040693
LTL 2.95274
LVL 0.60489
LYD 4.882192
MAD 10.057392
MDL 18.23504
MGA 4666.25078
MKD 59.052738
MMK 3247.960992
MNT 3397.999946
MOP 8.015644
MRU 39.77926
MUR 46.850378
MVR 15.460378
MWK 1733.576467
MXN 20.428504
MYR 4.468039
MZN 63.910377
NAD 18.040693
NGN 1696.703725
NIO 36.786794
NOK 11.072604
NPR 135.016076
NZD 1.714237
OMR 0.385039
PAB 0.99976
PEN 3.790969
PGK 4.025145
PHP 58.939038
PKR 277.626662
PLN 4.16352
PYG 7804.59715
QAR 3.646048
RON 4.778204
RSD 112.339038
RUB 104.308748
RWF 1364.748788
SAR 3.754429
SBD 8.383555
SCR 13.693555
SDG 601.503676
SEK 11.036204
SGD 1.346604
SHP 0.789317
SLE 22.730371
SLL 20969.504736
SOS 571.332598
SRD 35.494038
STD 20697.981008
SVC 8.748021
SYP 2512.529858
SZL 18.034455
THB 34.480369
TJS 10.647152
TMT 3.5
TND 3.17616
TOP 2.342104
TRY 34.552504
TTD 6.790153
TWD 32.583504
TZS 2659.340659
UAH 41.35995
UGX 3694.035222
UYU 42.516436
UZS 12825.951341
VES 46.55914
VND 25419
VUV 118.722009
WST 2.791591
XAF 629.547483
XAG 0.031938
XAU 0.000369
XCD 2.70255
XDR 0.760497
XOF 629.547483
XPF 114.458467
YER 249.925037
ZAR 18.15566
ZMK 9001.203587
ZMW 27.617448
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

W.Knight--TFWP