The China Mail - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

USD -
AED 3.672971
AFN 71.633316
ALL 90.15028
AMD 390.65139
ANG 1.790208
AOA 916.000208
ARS 1075.240199
AUD 1.66707
AWG 1.8025
AZN 1.701669
BAM 1.785401
BBD 2.019937
BDT 121.550441
BGN 1.789833
BHD 0.376812
BIF 2925.5
BMD 1
BND 1.347806
BOB 6.928063
BRL 5.8915
BSD 1.000438
BTN 85.886692
BWP 14.071636
BYN 3.273951
BYR 19600
BZD 2.009521
CAD 1.419105
CDF 2871.000051
CHF 0.856399
CLF 0.025814
CLP 990.58005
CNY 7.3086
CNH 7.34782
COP 4391.18
CRC 507.659163
CUC 1
CUP 26.5
CVE 100.299613
CZK 23.086025
DJF 177.719747
DKK 6.822201
DOP 63.095264
DZD 133.792975
EGP 51.397403
ERN 15
ETB 129.706476
EUR 0.913845
FJD 2.340899
FKP 0.774458
GBP 0.783555
GEL 2.749641
GGP 0.774458
GHS 15.496707
GIP 0.774458
GMD 71.502648
GNF 8655.999865
GTQ 7.722082
GYD 209.932898
HKD 7.76814
HNL 25.750093
HRK 6.887702
HTG 130.908693
HUF 372.538
IDR 16867
ILS 3.77925
IMP 0.774458
INR 85.996951
IQD 1310
IRR 42100.000023
ISK 132.409665
JEP 0.774458
JMD 157.77438
JOD 0.708902
JPY 147.907978
KES 129.492558
KGS 86.8327
KHR 3962.000228
KMF 450.500861
KPW 900
KRW 1469.890341
KWD 0.30792
KYD 0.833797
KZT 524.446798
LAK 21660.00035
LBP 90798.310473
LKR 297.977032
LRD 199.499029
LSL 18.770322
LTL 2.95274
LVL 0.60489
LYD 5.540199
MAD 9.527504
MDL 17.747936
MGA 4659.999906
MKD 56.233434
MMK 2099.820881
MNT 3508.612
MOP 8.006117
MRU 39.849789
MUR 45.150026
MVR 15.392016
MWK 1735.496871
MXN 20.61894
MYR 4.480097
MZN 63.910048
NAD 18.769714
NGN 1566.00028
NIO 36.775017
NOK 10.97051
NPR 137.416643
NZD 1.802825
OMR 0.384992
PAB 1.000424
PEN 3.668501
PGK 4.06275
PHP 57.311976
PKR 280.601706
PLN 3.927985
PYG 8008.763722
QAR 3.641035
RON 4.547302
RSD 107.068038
RUB 86.147282
RWF 1416
SAR 3.754683
SBD 8.316332
SCR 14.887727
SDG 600.50089
SEK 10.07457
SGD 1.350705
SHP 0.785843
SLE 22.750051
SLL 20969.501083
SOS 571.497124
SRD 36.664012
STD 20697.981008
SVC 8.75364
SYP 13001.844432
SZL 18.770189
THB 34.746497
TJS 10.870498
TMT 3.5
TND 3.040495
TOP 2.342097
TRY 37.993803
TTD 6.779955
TWD 32.986502
TZS 2691.721959
UAH 41.052646
UGX 3718.140656
UYU 42.138319
UZS 12940.000067
VES 70.161515
VND 25800
VUV 122.117563
WST 2.799576
XAF 598.823272
XAG 0.033547
XAU 0.000337
XCD 2.70255
XDR 0.744173
XOF 597.501522
XPF 108.299139
YER 245.649669
ZAR 19.581989
ZMK 9001.205864
ZMW 27.98795
ZWL 321.999592
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: © AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

B.Carter--ThChM