The Fort Worth Press - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

USD -
AED 3.67299
AFN 68.564771
ALL 93.747911
AMD 390.284429
ANG 1.810594
AOA 913.499903
ARS 1003.995219
AUD 1.53845
AWG 1.8025
AZN 1.698585
BAM 1.867656
BBD 2.028371
BDT 120.054049
BGN 1.877901
BHD 0.376868
BIF 2967.603314
BMD 1
BND 1.350013
BOB 6.941467
BRL 5.804704
BSD 1.004588
BTN 84.879318
BWP 13.715061
BYN 3.287735
BYR 19600
BZD 2.025029
CAD 1.39964
CDF 2869.999699
CHF 0.88891
CLF 0.035351
CLP 975.4971
CNY 7.247697
CNH 7.259275
COP 4389.25
CRC 510.697626
CUC 1
CUP 26.5
CVE 105.296581
CZK 24.346199
DJF 178.896958
DKK 7.159897
DOP 60.533139
DZD 134.012024
EGP 49.6749
ERN 15
ETB 125.19309
EUR 0.95995
FJD 2.27535
FKP 0.789317
GBP 0.79925
GEL 2.725019
GGP 0.789317
GHS 15.9733
GIP 0.789317
GMD 71.000116
GNF 8659.405931
GTQ 7.755077
GYD 210.182537
HKD 7.78465
HNL 25.38723
HRK 7.133259
HTG 131.897725
HUF 394.532497
IDR 15918.95
ILS 3.715855
IMP 0.789317
INR 84.44205
IQD 1316.106114
IRR 42104.999753
ISK 139.700135
JEP 0.789317
JMD 159.547343
JOD 0.709104
JPY 154.367034
KES 129.505413
KGS 86.506089
KHR 4051.853797
KMF 469.649805
KPW 899.999621
KRW 1406.270273
KWD 0.30779
KYD 0.837201
KZT 498.204702
LAK 22005.452662
LBP 89966.529634
LKR 292.295131
LRD 181.336364
LSL 18.178163
LTL 2.95274
LVL 0.60489
LYD 4.907395
MAD 10.047317
MDL 18.293632
MGA 4704.107261
MKD 59.074586
MMK 3247.960992
MNT 3397.999946
MOP 8.054107
MRU 39.953781
MUR 46.849839
MVR 15.449752
MWK 1742.028515
MXN 20.433102
MYR 4.467503
MZN 63.901504
NAD 18.17825
NGN 1691.079844
NIO 36.770064
NOK 11.090806
NPR 135.806643
NZD 1.712404
OMR 0.384991
PAB 1.004588
PEN 3.816004
PGK 4.044176
PHP 58.941058
PKR 279.238615
PLN 4.164403
PYG 7884.8734
QAR 3.662677
RON 4.777698
RSD 112.345961
RUB 102.945802
RWF 1380.387139
SAR 3.754443
SBD 8.36952
SCR 13.619873
SDG 601.498139
SEK 11.085395
SGD 1.34764
SHP 0.789317
SLE 22.584982
SLL 20969.504736
SOS 574.129781
SRD 35.404962
STD 20697.981008
SVC 8.790275
SYP 2512.529858
SZL 18.186159
THB 34.511502
TJS 10.699307
TMT 3.51
TND 3.178235
TOP 2.342098
TRY 34.558099
TTD 6.819267
TWD 32.584499
TZS 2657.358981
UAH 41.476647
UGX 3711.856071
UYU 42.810419
UZS 12854.999883
VES 46.264848
VND 25430
VUV 118.722009
WST 2.791591
XAF 626.409275
XAG 0.032002
XAU 0.00037
XCD 2.70255
XDR 0.766351
XOF 626.39432
XPF 113.885189
YER 249.905316
ZAR 18.040901
ZMK 9001.203383
ZMW 27.702577
ZWL 321.999592
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: © AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

F.Garcia--TFWP