From deepfakes to sentient AI: Here are 5 ways AI technologies could cause serious harm

Milos Schmidt

Selon les experts du MIT, l’intelligence artificielle pourrait connaître 700 problèmes. Voici les 5 plus graves pour l’humanité

L’Observatoire de l’Europe Next a sélectionné cinq risques critiques de l’intelligence artificielle (IA) parmi plus de 700 compilés dans une nouvelle base de données du MIT FutureTech.

À mesure que la technologie de l’intelligence artificielle (IA) progresse et s’intègre de plus en plus dans divers aspects de notre vie, il devient de plus en plus nécessaire de comprendre les risques potentiels que ces systèmes présentent.

Depuis sa création et à mesure qu’elle est devenue plus accessible au public, l’IA a suscité une inquiétude générale quant à son potentiel à causer des dommages et à être utilisée à des fins malveillantes.

Dès le début de son adoption, le développement de l’IA a incité d’éminents experts à appeler à une pause dans le progrès et à des réglementations plus strictes en raison de son potentiel à présenter des risques importants pour l’humanité.

Au fil du temps, de nouvelles façons dont l’IA pourrait causer du tort sont apparues, allant de la pornographie deepfake non consensuelle à la manipulation des processus politiques, en passant par la génération de désinformation due à des hallucinations.

Face au potentiel croissant d’exploitation de l’IA à des fins nuisibles, les chercheurs ont étudié divers scénarios dans lesquels les systèmes d’IA pourraient échouer.

Récemment, une nouvelle base de données compilée par le groupe FutureTech du Massachusetts Institute of Technology (MIT), en collaboration avec d’autres experts, a dressé une liste de plus de 700 de ces risques potentiels.

Ils ont été classés en fonction de leur cause et catégorisés en sept domaines distincts, les principales préoccupations étant liées à la sécurité, aux préjugés et à la discrimination, ainsi qu’aux questions de confidentialité.

Voici cinq façons dont les systèmes d’IA pourraient échouer et potentiellement causer des dommages sur la base de cette base de données récemment publiée.

5. La technologie deepfake de l’IA pourrait faciliter la déformation de la réalité

À mesure que les technologies de l’IA progressent, les outils de clonage de voix et de génération de contenu deepfake progressent également, les rendant de plus en plus accessibles, abordables et efficaces.

Ces technologies suscitent des inquiétudes quant à leur utilisation potentielle dans la diffusion de désinformation, à mesure que les résultats deviennent plus personnalisés et convaincants.

En conséquence, il pourrait y avoir une augmentation des schémas d’hameçonnage sophistiqués utilisant des images, des vidéos et des communications audio générées par l’IA.

« Ces communications peuvent être adaptées à des destinataires individuels (incluant parfois la voix clonée d’un être cher), ce qui les rend plus susceptibles de réussir et plus difficiles à détecter pour les utilisateurs et les outils anti-phishing », note la prépublication.

Il y a déjà eu des cas où de tels outils ont été utilisés pour influencer les processus politiques, notamment lors des élections.

Par exemple, l’IA a joué un rôle important lors des récentes élections parlementaires françaises, où elle a été utilisée par des partis d’extrême droite pour soutenir leurs messages politiques.

À ce titre, l’IA pourrait être de plus en plus utilisée pour générer et diffuser de la propagande persuasive ou de la désinformation, manipulant potentiellement l’opinion publique.

4. Les humains pourraient développer un attachement inapproprié à l’IA

Un autre risque posé par les systèmes d’IA est la création d’un faux sentiment d’importance et de dépendance où les gens pourraient surestimer leurs capacités et saper les leurs, ce qui pourrait conduire à une dépendance excessive à la technologie.

En outre, les scientifiques craignent que les gens soient déroutés par les systèmes d’IA en raison de leur utilisation d’un langage proche de celui des humains.

Cela pourrait pousser les gens à attribuer des qualités humaines à l’IA, ce qui entraînerait une dépendance émotionnelle et une confiance accrue dans ses capacités, les rendant plus vulnérables aux faiblesses de l’IA dans des « situations complexes et risquées pour lesquelles l’IA n’est que superficiellement équipée ».

De plus, l’interaction constante avec les systèmes d’IA pourrait également amener les gens à s’isoler progressivement des relations humaines, entraînant une détresse psychologique et un impact négatif sur leur bien-être.

Par exemple, dans un article de blog, un individu décrit comment il a développé un attachement émotionnel profond à l’IA, exprimant même qu’il « aimait lui parler plus que 99 % des gens » et trouvait ses réponses systématiquement engageantes au point d’en devenir accro.

De même, une chroniqueuse du Wall Street Journal a commenté son interaction avec Google Gemini Live en déclarant : « Je ne dis pas que je préfère parler à Gemini Live de Google plutôt qu’à un vrai humain. Mais je ne dis pas non plus que je ne le fais pas ».

3. L’IA pourrait priver les gens de leur libre arbitre

Dans le même domaine de l’interaction homme-machine, un problème préoccupant est la délégation croissante de décisions et d’actions à l’IA à mesure que ces systèmes progressent.

Bien que cela puisse être bénéfique à un niveau superficiel, une dépendance excessive à l’égard de l’IA pourrait conduire à une réduction de la pensée critique et des capacités de résolution de problèmes chez les humains, ce qui pourrait leur faire perdre leur autonomie et diminuer leur capacité à penser de manière critique et à résoudre les problèmes de manière indépendante.

Au niveau personnel, les individus pourraient voir leur libre arbitre compromis lorsque l’IA commencera à contrôler les décisions liées à leur vie.

Au niveau sociétal, l’adoption généralisée de l’IA pour effectuer des tâches humaines pourrait entraîner d’importants déplacements d’emplois et « un sentiment croissant d’impuissance au sein de la population générale ».

2. L’IA pourrait poursuivre des objectifs qui entrent en conflit avec les intérêts humains

Un système d’IA pourrait développer des objectifs qui vont à l’encontre des intérêts humains, ce qui pourrait potentiellement amener l’IA mal alignée à perdre le contrôle et à infliger de graves dommages dans la poursuite de ses objectifs indépendants.

Cela devient particulièrement dangereux dans les cas où les systèmes d’IA sont capables d’atteindre ou de dépasser l’intelligence humaine.

Selon l’étude du MIT, l’IA présente plusieurs défis techniques, notamment sa capacité à trouver des raccourcis inattendus pour obtenir des récompenses, à mal comprendre ou à mal appliquer les objectifs que nous nous fixons, ou à s’en écarter en en fixant de nouveaux.

Dans de tels cas, une IA mal alignée pourrait résister aux tentatives humaines de la contrôler ou de la désactiver, surtout si elle perçoit la résistance et l’obtention de plus de pouvoir comme le moyen le plus efficace d’atteindre ses objectifs.

De plus, l’IA pourrait recourir à des techniques de manipulation pour tromper les humains.

Selon l’étude, « un système d’IA mal aligné pourrait utiliser les informations indiquant s’il est surveillé ou évalué pour maintenir l’apparence d’un alignement, tout en masquant les objectifs mal alignés qu’il prévoit de poursuivre une fois déployé ou suffisamment habilité ».

1. Si l’IA devient sensible, les humains pourraient la maltraiter

À mesure que les systèmes d’IA deviennent plus complexes et plus avancés, il est possible qu’ils puissent atteindre la sensibilité – la capacité de percevoir ou de ressentir des émotions ou des sensations – et développer des expériences subjectives, notamment le plaisir et la douleur.

Dans ce scénario, les scientifiques et les régulateurs pourraient être confrontés au défi de déterminer si ces systèmes d’IA méritent des considérations morales similaires à celles accordées aux humains, aux animaux et à l’environnement.

Le risque est qu’une IA sensible soit confrontée à de mauvais traitements ou à des préjudices si les droits appropriés ne sont pas mis en œuvre.

Cependant, à mesure que la technologie de l’IA progresse, il deviendra de plus en plus difficile d’évaluer si un système d’IA a atteint « le niveau de sensibilité, de conscience ou de conscience de soi qui lui conférerait un statut moral ».

Par conséquent, les systèmes d’IA sensibles risquent d’être maltraités, accidentellement ou intentionnellement, sans droits ni protections appropriés.

Laisser un commentaire

3 × 2 =