The China Mail - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

USD -
AED 3.673018
AFN 71.99985
ALL 87.274775
AMD 390.939743
ANG 1.80229
AOA 911.999933
ARS 1137.970103
AUD 1.565349
AWG 1.8
AZN 1.696802
BAM 1.720686
BBD 2.017877
BDT 121.428069
BGN 1.721593
BHD 0.376901
BIF 2930
BMD 1
BND 1.312071
BOB 6.906563
BRL 5.8082
BSD 0.999437
BTN 85.314611
BWP 13.77569
BYN 3.270808
BYR 19600
BZD 2.007496
CAD 1.384165
CDF 2877.000265
CHF 0.81849
CLF 0.025203
CLP 967.159689
CNY 7.294249
CNH 7.29554
COP 4310
CRC 502.269848
CUC 1
CUP 26.5
CVE 97.405606
CZK 22.038599
DJF 177.719828
DKK 6.56557
DOP 60.498823
DZD 132.56601
EGP 51.126901
ERN 15
ETB 133.023649
EUR 0.879325
FJD 2.283704
FKP 0.752659
GBP 0.753835
GEL 2.74009
GGP 0.752659
GHS 15.560015
GIP 0.752659
GMD 71.441137
GNF 8655.494061
GTQ 7.698128
GYD 209.656701
HKD 7.763675
HNL 25.908819
HRK 6.578201
HTG 130.419482
HUF 359.105018
IDR 16862.9
ILS 3.68639
IMP 0.752659
INR 85.3775
IQD 1310
IRR 42125.000163
ISK 127.590332
JEP 0.752659
JMD 157.965583
JOD 0.709302
JPY 142.384499
KES 129.479026
KGS 87.233502
KHR 4015.00028
KMF 433.501099
KPW 899.999997
KRW 1418.390281
KWD 0.30663
KYD 0.832893
KZT 523.173564
LAK 21629.99983
LBP 89599.999771
LKR 298.915224
LRD 199.974997
LSL 18.856894
LTL 2.95274
LVL 0.60489
LYD 5.469991
MAD 9.275028
MDL 17.289555
MGA 4552.892736
MKD 54.091003
MMK 2099.344606
MNT 3566.297198
MOP 7.990393
MRU 39.435529
MUR 45.090003
MVR 15.466982
MWK 1736.000133
MXN 19.71941
MYR 4.407503
MZN 63.904998
NAD 18.856894
NGN 1604.701516
NIO 36.775056
NOK 10.47246
NPR 136.503202
NZD 1.67405
OMR 0.384998
PAB 0.999437
PEN 3.762991
PGK 4.133235
PHP 56.712498
PKR 280.599154
PLN 3.762405
PYG 7999.894426
QAR 3.6406
RON 4.378103
RSD 103.137317
RUB 82.174309
RWF 1415
SAR 3.752237
SBD 8.368347
SCR 14.241693
SDG 600.501759
SEK 9.62027
SGD 1.310745
SHP 0.785843
SLE 22.774984
SLL 20969.483762
SOS 571.495264
SRD 37.150302
STD 20697.981008
SVC 8.745073
SYP 13001.855093
SZL 18.819789
THB 33.346969
TJS 10.733754
TMT 3.5
TND 2.987975
TOP 2.342098
TRY 38.020797
TTD 6.781391
TWD 32.52405
TZS 2687.49954
UAH 41.417687
UGX 3663.55798
UYU 41.913007
UZS 12986.521678
VES 80.85863
VND 25870
VUV 120.966432
WST 2.777003
XAF 577.111964
XAG 0.030664
XAU 0.000298
XCD 2.70255
XDR 0.717698
XOF 574.999869
XPF 102.774969
YER 245.249869
ZAR 18.821899
ZMK 9001.203383
ZMW 28.458439
ZWL 321.999592
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: © AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

D.Peng--ThChM