The China Mail - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.672975
AFN 71.633316
ALL 90.514467
AMD 390.65139
ANG 1.790208
AOA 916.000413
ARS 1075.375034
AUD 1.662635
AWG 1.8
AZN 1.696617
BAM 1.785401
BBD 2.019937
BDT 121.550441
BGN 1.785365
BHD 0.376814
BIF 2973.60337
BMD 1
BND 1.347806
BOB 6.928063
BRL 5.8739
BSD 1.000438
BTN 85.886692
BWP 14.071636
BYN 3.273951
BYR 19600
BZD 2.009521
CAD 1.421265
CDF 2873.000064
CHF 0.860445
CLF 0.025675
CLP 984.99985
CNY 7.28155
CNH 7.320185
COP 4388.98
CRC 507.659163
CUC 1
CUP 26.5
CVE 100.658183
CZK 23.111704
DJF 178.152473
DKK 6.84078
DOP 62.916507
DZD 133.90697
EGP 51.412398
ERN 15
ETB 132.431441
EUR 0.916475
FJD 2.33765
FKP 0.774458
GBP 0.78371
GEL 2.749751
GGP 0.774458
GHS 15.452654
GIP 0.774458
GMD 71.461814
GNF 8678.171978
GTQ 7.716396
GYD 210.180705
HKD 7.77098
HNL 25.664557
HRK 6.887982
HTG 132.979117
HUF 370.361432
IDR 16564.219442
ILS 3.77986
IMP 0.774458
INR 85.509498
IQD 1310.323621
IRR 42002.601119
ISK 132.195716
JEP 0.774458
JMD 157.23621
JOD 0.709026
JPY 147.701498
KES 129.479403
KGS 86.768703
KHR 3998.590514
KMF 449.018129
KPW 900
KRW 1459.452089
KWD 0.307805
KYD 0.820006
KZT 509.574919
LAK 21651.680698
LBP 90271.085203
LKR 295.427831
LRD 199.886597
LSL 19.092298
LTL 2.95274
LVL 0.60489
LYD 4.834961
MAD 9.536033
MDL 17.531802
MGA 4651.707636
MKD 56.07975
MMK 2099.820881
MNT 3508.612
MOP 8.007644
MRU 39.915707
MUR 44.569601
MVR 15.459708
MWK 1733.371401
MXN 20.64479
MYR 4.436766
MZN 63.616338
NAD 19.092298
NGN 1529.461127
NIO 36.624561
NOK 10.951715
NPR 136.879329
NZD 1.798351
OMR 0.384998
PAB 1
PEN 3.678499
PGK 4.09838
PHP 57.408042
PKR 280.344053
PLN 3.889526
PYG 8053.790242
QAR 3.639965
RON 4.543598
RSD 106.910099
RUB 84.501385
RWF 1410.241694
SAR 3.749452
SBD 8.499799
SCR 14.818833
SDG 598.970435
SEK 10.07421
SGD 1.345922
SHP 0.785843
SLE 22.750047
SLL 20969.501083
SOS 569.536574
SRD 36.514556
STD 20697.981008
SVC 8.749749
SYP 13001.844432
SZL 19.092298
THB 34.326544
TJS 10.894584
TMT 3.49741
TND 3.056507
TOP 2.404412
TRY 37.99879
TTD 6.730946
TWD 33.205802
TZS 2665.572985
UAH 41.467776
UGX 3656.587596
UYU 42.236311
UZS 12920.507366
VES 71.363877
VND 25782.587407
VUV 122.117563
WST 2.799576
XAF 598.690839
XAG 0.033287
XAU 0.000334
XCD 2.7
XDR 0.746748
XOF 598.690839
XPF 108.913878
YER 245.471684
ZAR 19.56376
ZMK 9001.203025
ZMW 27.90088
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

U.Chen--ThChM