IA: les experts ne s’entendent pas sur les risques de cette nouvelle technologie

OTTAWA — Les experts ne s’entendent pas sur les risques que l’intelligence artificielle (IA) représente, constate un important rapport international.

Ce rapport portant sur les capacités et les risques des systèmes d’IA, comme ChatGPT, conclut que l’avenir de ce domaine est remarquablement difficile à déterminer. Les auteurs signalent «qu’une grande variété de trajectoires» est encore possible, même dans un avenir rapproché. L’IA peut avoir des conséquences très positives et très négatives.

Il a été supervisé par Yoshua Bengio, le directeur scientifique de l’Institut québécois d’intelligence artificielle et une des sommités mondiales en la matière.

Le Pr Bengio en avait reçu l’an dernier le mandat par le gouvernement britannique, hôte du premier sommet portant sur la sûreté de l’intelligence artificielle qui s’est déroulé en novembre. Le rapport a été publié à quelques jours du début du prochain sommet qui aura lieu la semaine prochaine à Séoul, en Corée du Sud.

«Nous savons que l’IA avancée se développe très rapidement. Il existe une grande incertitude sur comment ces systèmes affecteront nos vies et notre travail dans l’avenir», écrit le Pr Bengio dans le rapport.

Dans un communiqué publié vendredi, le gouvernement britannique souligne qu’il s’agit du «premier rapport scientifique international indépendant» sur la sûreté de l’intelligence artificielle. Il jouera un «rôle substantiel» dans les prochaines discussions qui se dérouleront à Séoul.

Un groupe de 75 experts ont contribué à ce rapport, dont un comité nommé par 30 pays, l’Union européenne et les Nations Unies. Une version finale du rapport est prévue d’ici la fin de l’année.

Le rapport se concentre sur les systèmes à usage général comme OpenAI’s ChatGPT qui peut écrire des textes ou réaliser des images et des vidéos à partir de messages.

Il écrit que les experts «continuent à ne pas s’entendre sur plusieurs questions, mineures et importantes, sur les capacités des systèmes d’IA à usage général, les risques, et les moyens de les réduire».

Parmi les sujets qui sont encore débattus par les experts figurent les chamboulements que l’IA fera subir au marché du travail, le piratage et les attentats biologiques. Ils s’interrogent aussi sur la possibilité que la société perde le contrôle sur les systèmes d’intelligence artificielle.

Le rapport énumère aussi un certain nombre de dangers que pourrait faire courir l’IA comme les faux contenus, la désinformation, les fraudes et les cyberattaques. Il met en garde contre les biais de l’IA, notamment dans les secteurs cruciaux comme les soins de santé, le recrutement et les prêts financiers.

Un scénario catastrophique prévoit que l’humanité perdra le contrôle de l’intelligence artificielle et ne pourra pas l’empêcher de lui nuire.

On peut aussi lire qu’il existe un consensus pour dire que la technologie actuelle ne fait pas courir ce danger, mais des experts croient que les recherches pour développer une IA autonome «pouvant planifier, agir pour atteindre des objectifs», pourraient mener à ce résultat.

«Les experts ne s’entendent pas sur la plausibilité des scénarios catastrophiques et sur les difficultés pour en réduire les risques.»