The China Mail - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

USD -
AED 3.673043
AFN 71.737248
ALL 86.24968
AMD 390.12977
ANG 1.80229
AOA 917.000145
ARS 1102.783773
AUD 1.569604
AWG 1.8
AZN 1.701822
BAM 1.702302
BBD 2.018948
BDT 121.497239
BGN 1.710615
BHD 0.376893
BIF 2973.327009
BMD 1
BND 1.3076
BOB 6.909637
BRL 5.7248
BSD 0.999987
BTN 85.137752
BWP 13.660834
BYN 3.269781
BYR 19600
BZD 2.008591
CAD 1.38175
CDF 2874.999801
CHF 0.81805
CLF 0.024822
CLP 952.520497
CNY 7.312303
CNH 7.31145
COP 4295.25
CRC 502.735189
CUC 1
CUP 26.5
CVE 96.850263
CZK 21.951301
DJF 177.720433
DKK 6.536702
DOP 59.350447
DZD 132.174179
EGP 51.017943
ERN 15
ETB 131.899323
EUR 0.875305
FJD 2.25845
FKP 0.747304
GBP 0.749963
GEL 2.739958
GGP 0.747304
GHS 15.391591
GIP 0.747304
GMD 71.000536
GNF 8655.497519
GTQ 7.70292
GYD 209.769577
HKD 7.757825
HNL 25.809449
HRK 6.597601
HTG 130.792966
HUF 358.110427
IDR 16862.7
ILS 3.693504
IMP 0.747304
INR 85.244498
IQD 1310
IRR 42112.494418
ISK 126.829589
JEP 0.747304
JMD 158.488661
JOD 0.709301
JPY 141.514965
KES 129.493384
KGS 86.874988
KHR 4016.000078
KMF 429.496975
KPW 900.060306
KRW 1430.190042
KWD 0.305895
KYD 0.833264
KZT 518.59363
LAK 21600.000231
LBP 89549.999891
LKR 299.882933
LRD 199.449471
LSL 18.679811
LTL 2.95274
LVL 0.60489
LYD 5.435019
MAD 9.2375
MDL 17.104112
MGA 4525.000012
MKD 53.800582
MMK 2099.542767
MNT 3539.927763
MOP 7.989364
MRU 39.585792
MUR 44.509725
MVR 15.404973
MWK 1737.0001
MXN 19.61298
MYR 4.391032
MZN 64.000376
NAD 18.679777
NGN 1606.159878
NIO 36.799937
NOK 10.396665
NPR 136.228529
NZD 1.675154
OMR 0.384989
PAB 0.999839
PEN 3.698502
PGK 4.046001
PHP 56.624972
PKR 280.850166
PLN 3.75134
PYG 8004.943795
QAR 3.641098
RON 4.356599
RSD 102.044102
RUB 81.50186
RWF 1440.663583
SAR 3.751012
SBD 8.336982
SCR 14.524753
SDG 600.498469
SEK 9.57001
SGD 1.310215
SHP 0.785843
SLE 22.750142
SLL 20969.483762
SOS 571.498711
SRD 36.858981
STD 20697.981008
SVC 8.749124
SYP 13001.950927
SZL 18.705022
THB 33.470011
TJS 10.649439
TMT 3.51
TND 2.978503
TOP 2.342101
TRY 38.27338
TTD 6.791625
TWD 32.588796
TZS 2685.000288
UAH 41.584451
UGX 3659.974846
UYU 42.222445
UZS 12914.999717
VES 81.659125
VND 25965
VUV 120.379945
WST 2.787305
XAF 570.906243
XAG 0.030766
XAU 0.000296
XCD 2.70255
XDR 0.709959
XOF 569.000189
XPF 104.649865
YER 245.250008
ZAR 18.61975
ZMK 9001.199
ZMW 28.472334
ZWL 321.999592
  • AEX

    5.0300

    857.21

    +0.59%

  • BEL20

    40.7200

    4238.33

    +0.97%

  • PX1

    41.5200

    7326.47

    +0.57%

  • ISEQ

    46.8500

    10014.3

    +0.47%

  • OSEBX

    -10.1300

    1437.37

    -0.7%

  • PSI20

    94.3000

    6830.25

    +1.4%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -2.9200

    2651.45

    -0.11%

  • N150

    2.9300

    3253.5

    +0.09%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: © AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

P.Deng--ThChM