The China Mail - Medo de perder o controle da IA preocupa especialistas

USD -
AED 3.673015
AFN 72.408785
ALL 87.540161
AMD 389.683553
ANG 1.790152
AOA 918.000282
ARS 1077.458808
AUD 1.586422
AWG 1.8
AZN 1.700643
BAM 1.721579
BBD 2.014876
BDT 121.253466
BGN 1.726423
BHD 0.376568
BIF 2966.682804
BMD 1
BND 1.317724
BOB 6.895823
BRL 5.862602
BSD 0.997931
BTN 85.914352
BWP 13.918401
BYN 3.265789
BYR 19600
BZD 2.004489
CAD 1.38609
CDF 2874.500536
CHF 0.81916
CLF 0.025326
CLP 985.229523
CNY 7.2921
CNH 7.27949
COP 4322.521016
CRC 512.037322
CUC 1
CUP 26.5
CVE 97.059989
CZK 22.191497
DJF 177.527398
DKK 6.604405
DOP 61.634611
DZD 131.645985
EGP 51.447241
ERN 15
ETB 129.670789
EUR 0.883355
FJD 2.279503
FKP 0.76446
GBP 0.76365
GEL 2.760052
GGP 0.76446
GHS 15.467629
GIP 0.76446
GMD 71.499647
GNF 8638.704282
GTQ 7.696844
GYD 208.776022
HKD 7.755105
HNL 25.854496
HRK 6.641597
HTG 130.575239
HUF 361.744502
IDR 16797.15
ILS 3.71882
IMP 0.76446
INR 85.97315
IQD 1307.248801
IRR 42100.000409
ISK 127.96157
JEP 0.76446
JMD 158.179658
JOD 0.709101
JPY 143.930307
KES 129.228467
KGS 87.450277
KHR 3998.063466
KMF 439.499501
KPW 900
KRW 1421.184956
KWD 0.30644
KYD 0.831654
KZT 515.699133
LAK 21619.647023
LBP 89413.670173
LKR 297.662955
LRD 199.586286
LSL 19.251353
LTL 2.95274
LVL 0.60489
LYD 5.545531
MAD 9.283746
MDL 17.688482
MGA 4501.562431
MKD 54.16575
MMK 2099.312624
MNT 3535.734296
MOP 7.972008
MRU 39.338938
MUR 43.901311
MVR 15.403814
MWK 1730.381585
MXN 20.275052
MYR 4.422497
MZN 63.910219
NAD 19.251353
NGN 1597.070062
NIO 36.723736
NOK 10.70806
NPR 137.46314
NZD 1.717034
OMR 0.385008
PAB 0.997931
PEN 3.724748
PGK 4.123938
PHP 57.004009
PKR 279.791911
PLN 3.788804
PYG 7983.80353
QAR 3.63866
RON 4.389265
RSD 103.182078
RUB 83.440618
RWF 1438.316975
SAR 3.753035
SBD 8.354365
SCR 14.325954
SDG 600.500827
SEK 9.79714
SGD 1.318305
SHP 0.785843
SLE 22.780217
SLL 20969.483762
SOS 570.309405
SRD 37.046025
STD 20697.981008
SVC 8.73201
SYP 13001.742852
SZL 19.241231
THB 33.549498
TJS 10.842393
TMT 3.5
TND 3.003389
TOP 2.342101
TRY 37.999903
TTD 6.785793
TWD 32.377204
TZS 2674.442146
UAH 41.31165
UGX 3667.092117
UYU 43.290348
UZS 12941.331808
VES 77.11805
VND 25757.5
VUV 122.927815
WST 2.82566
XAF 577.401523
XAG 0.030972
XAU 0.000309
XCD 2.702549
XDR 0.718102
XOF 577.401523
XPF 104.977774
YER 245.366306
ZAR 19.107503
ZMK 9001.203496
ZMW 28.166014
ZWL 321.999592
Medo de perder o controle da IA preocupa especialistas
Medo de perder o controle da IA preocupa especialistas / foto: © AFP

Medo de perder o controle da IA preocupa especialistas

E se os humanos perdessem o controle da inteligência artificial? Reunidos em uma cúpula sobre IA em Paris, os especialistas sublinham a necessidade de estabelecer regras para evitar esse cenário.

Tamanho do texto:

Ao contrário das cúpulas anteriores de Bletchley Park (Reino Unido), em 2023, e de Seul (Coreia do Sul), em 2024, que se centraram em questões de segurança, a Presidência francesa pretende que a reunião de segunda e terça-feira coloque a tônica em medidas eficazes de governação da IA.

O objetivo é que o maior número possível de intervenientes nesta nova revolução econômica se comprometa com uma declaração global, mas sem medidas vinculativas.

“O nosso desejo é não gastar o nosso tempo a falar apenas dos riscos. Há uma oportunidade muito real”, declarou à AFP Anne Bouverot, especialmente designada pela Presidência francesa.

Para Max Tegmark, presidente do Future of Life Institute e físico do prestigiado Massachusetts Institute of Technology (MIT), o país não deve perder o “momento crucial” desta cúpula sobre a IA, que reúne os principais intervenientes do setor durante vários dias na capital francesa.

- Ataques cibernéticos, ataques biológicos -

O Future of Life Institute apoia o lançamento de uma plataforma, chamada “GRASP”, que visa mapear os principais riscos relacionados à IA e as soluções desenvolvidas em todo o mundo.

“Identificamos cerca de 300 ferramentas e tecnologias que enfrentam esses riscos”, diz Cyrus Hodes, que coordenou a iniciativa.

Os resultados serão transmitidos à OCDE e aos membros da Parceria Global para Inteligência Artificial (PMIA), da qual a França faz parte e que se reúne no domingo.

O primeiro relatório internacional sobre a segurança da IA, fruto de uma colaboração internacional de 96 especialistas e apoiado por 30 países, pela ONU, pela União Europeia e pela OCDE, foi apresentado na quinta-feira, também com o objetivo de informar os formuladores de políticas sobre os perigos dessa tecnologia.

Embora alguns sejam bem conhecidos, como a criação de conteúdo falso on-line, o pesquisador de ciência da computação Yoshua Bengio, vencedor do prêmio Turing de 2018, diz que “evidências de riscos adicionais, como ataques biológicos ou ataques cibernéticos, estão surgindo gradualmente”.

Em longo prazo, ele se preocupa com a “perda de controle” dos seres humanos sobre os sistemas de IA animados por “sua própria vontade de viver”.

“Muitas pessoas achavam que dominar a linguagem, como faz o ChatGPT-4 (chatbot da OpenAI), era ficção científica há apenas seis anos”, lembra Max Tegmark.

“O problema é que muitas pessoas no poder ainda não entenderam que estamos mais perto de construir uma inteligência artificial geral do que de saber como controlá-la”.

- As máquinas estão no comando? -

A inteligência artificial geral seria comparável ou até mesmo superior aos seres humanos, e vários especialistas do ecossistema, como o diretor da OpenAI, Sam Altman, acreditam que ela será alcançada nos próximos anos.

“Se observarmos o ritmo de aumento das capacidades, podemos pensar que chegaremos lá em 2026 ou 2027”, concordou Dario Amodei, diretor da startup americana Anthropic, em novembro.

Com o risco de que, na “pior das hipóteses, essas empresas americanas ou chinesas percam o controle e a Terra seja dominada por máquinas”, argumenta Tegmark.

“A tecnologia está mudando muito rápido”, diz Stuart Russell, professor de ciência da computação na Universidade da Califórnia, Berkeley, e codiretor da Associação Internacional para IA Segura e Ética (IASEAI).

O mais preocupante “seria ter sistemas de armas em que a inteligência artificial controlasse e decidisse quem atacar e quando”, acrescenta.

Para esses especialistas, os Estados devem adotar medidas de proteção.

“Devemos tratar o setor de inteligência artificial da mesma forma que tratamos todos os outros setores”, enfatiza Tegmark.

“Antes de construirmos um reator nuclear perto de Paris, precisamos provar a especialistas nomeados pelo governo que o reator é seguro”, continua ele. “Deve ser a mesma coisa com a IA.”

Uma voz discordante é a do professor de ciência da computação de Berkeley, Michael Jordan, que considera a ideia de uma super IA “absurda”.

A IA “não pode saber tudo, porque o que estou pensando agora é o contexto do que farei em seguida, hoje. Ela não pode saber isso”, diz ele.

A.Zhang--ThChM