The China Mail - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

USD -
AED 3.67302
AFN 70.776276
ALL 86.345824
AMD 389.460288
ANG 1.80229
AOA 916.999983
ARS 1179.493899
AUD 1.544235
AWG 1.8
AZN 1.696692
BAM 1.722337
BBD 2.017172
BDT 121.386112
BGN 1.722995
BHD 0.376909
BIF 2971.775791
BMD 1
BND 1.287658
BOB 6.918233
BRL 5.6598
BSD 0.999075
BTN 84.275461
BWP 13.565233
BYN 3.269517
BYR 19600
BZD 2.006781
CAD 1.381699
CDF 2870.999848
CHF 0.822399
CLF 0.024584
CLP 943.330089
CNY 7.271602
CNH 7.194585
COP 4284.03
CRC 505.305799
CUC 1
CUP 26.5
CVE 97.102726
CZK 21.99785
DJF 177.90498
DKK 6.58477
DOP 58.790894
DZD 132.441436
EGP 50.681971
ERN 15
ETB 133.372815
EUR 0.882385
FJD 2.24975
FKP 0.753297
GBP 0.75168
GEL 2.740208
GGP 0.753297
GHS 13.886663
GIP 0.753297
GMD 71.502635
GNF 8654.836863
GTQ 7.694069
GYD 209.017657
HKD 7.750055
HNL 25.946017
HRK 6.644499
HTG 130.527057
HUF 355.790234
IDR 16390.2
ILS 3.610799
IMP 0.753297
INR 84.219801
IQD 1308.793096
IRR 42112.507612
ISK 129.630441
JEP 0.753297
JMD 158.460658
JOD 0.709305
JPY 143.822992
KES 129.129683
KGS 87.450344
KHR 4005.988288
KMF 434.499391
KPW 900
KRW 1376.750026
KWD 0.30664
KYD 0.832548
KZT 516.762802
LAK 21609.792612
LBP 89516.181586
LKR 299.27348
LRD 199.815068
LSL 18.29598
LTL 2.95274
LVL 0.60489
LYD 5.454626
MAD 9.216943
MDL 17.203998
MGA 4464.796795
MKD 54.232612
MMK 2099.564603
MNT 3572.990228
MOP 7.97543
MRU 39.653032
MUR 45.409437
MVR 15.409802
MWK 1732.376381
MXN 19.618013
MYR 4.203425
MZN 63.999681
NAD 18.29598
NGN 1604.339942
NIO 36.766325
NOK 10.388845
NPR 134.840386
NZD 1.67335
OMR 0.384998
PAB 0.999075
PEN 3.646603
PGK 4.081723
PHP 55.598034
PKR 281.336533
PLN 3.767709
PYG 7985.557659
QAR 3.641671
RON 4.393296
RSD 103.209898
RUB 80.498987
RWF 1414.909075
SAR 3.750535
SBD 8.340429
SCR 14.209063
SDG 600.503701
SEK 9.64403
SGD 1.288755
SHP 0.785843
SLE 22.79025
SLL 20969.483762
SOS 571.000837
SRD 36.850485
STD 20697.981008
SVC 8.742019
SYP 13001.866678
SZL 18.288054
THB 32.874025
TJS 10.390295
TMT 3.5
TND 2.989565
TOP 2.342101
TRY 38.562802
TTD 6.786139
TWD 29.179726
TZS 2685.999946
UAH 41.54172
UGX 3653.736075
UYU 41.92682
UZS 12902.998547
VES 86.73797
VND 25957.5
VUV 121.092427
WST 2.778524
XAF 577.655762
XAG 0.031022
XAU 0.000302
XCD 2.70255
XDR 0.72166
XOF 577.655762
XPF 105.023997
YER 244.649854
ZAR 18.29497
ZMK 9001.201128
ZMW 27.548765
ZWL 321.999592
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: © AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

A.Zhang--ThChM