Le lundi 22 mai 2023, un compte Twitter vérifié appelé « Bloomberg Feed » a partagé un tweet affirmant qu'il y avait eu un explosion au Pentagone, accompagné d'une image. Si vous vous demandez ce que cela a à voir avec l’intelligence artificielle (IA), l’image est une image générée par l’IA, le tweet étant rapidement devenu viral et déclenchant une brève baisse du marché boursier. Les choses auraient pu être bien pires – un rappel brutal des dangers de l’intelligence artificielle.
Dangers de l'intelligence artificielle
Il n’y a pas que les fausses nouvelles dont nous devons nous inquiéter. Il existe de nombreux risques immédiats ou potentiels associés à l’IA, depuis ceux concernant la confidentialité et la sécurité jusqu’aux problèmes de partialité et de droits d’auteur. Nous examinerons certains de ces dangers liés à l’intelligence artificielle, verrons ce qui est fait pour les atténuer aujourd’hui et à l’avenir, et nous demanderons si les risques de l’IA l’emportent sur ses avantages.
Fausses nouvelles
À l'époque où les deepfakes sont apparus pour la première fois, on craignait qu'ils puissent être utilisés à des fins malveillantes. La même chose pourrait être dite pour la nouvelle vague de Générateurs d'images IA, comme DALL-E 2, Midjourney ou DreamStudio. Le 28 mars 2023, faux Images générées par l'IA du pape François dans une doudoune Balenciaga blanche et profitant de plusieurs aventures, notamment faire du skateboard et jouer au poker, est devenu viral. À moins d’étudier les images de près, il était difficile de distinguer ces images de la réalité.
Même si l’exemple du pape était sans aucun doute un peu amusant, l’image (et le tweet qui l’accompagne) du Pentagone l’était tout sauf. Les fausses images générées par l’IA ont le pouvoir de nuire à la réputation, de mettre fin à des mariages ou à des carrières, de créer des troubles politiques et même de déclencher des guerres si elles sont utilisées par les mauvaises personnes. En bref, ces images générées par l’IA peuvent être extrêmement dangereuses si elles sont utilisées à mauvais escient.
Avec les générateurs d'images IA désormais disponibles gratuitement pour tous, et Photoshop ajoutant un générateur d'images AI avec son logiciel populaire, la possibilité de manipuler des images et de créer de fausses nouvelles est plus grande que jamais.
Confidentialité, sécurité et piratage
La confidentialité et la sécurité sont également des préoccupations majeures en ce qui concerne les risques liés à l'IA, un certain nombre de pays interdisant déjà ChatGPT d'OpenAI. L'Italie a interdit le modèle pour des raisons de confidentialité, estimant qu'il n'est pas conforme au Règlement général européen sur la protection des données (RGPD), tandis que les gouvernements de la Chine, de la Corée du Nord et de la Russie l'ont interdit par crainte qu'il ne propage de fausses informations..
Alors pourquoi sommes-nous si préoccupés par la confidentialité lorsqu'il s'agit d'IA ? Applications d'IA et les systèmes collectent de grandes quantités de données afin d'apprendre et de faire des prédictions. Mais comment ces données sont-elles stockées et traitées ? Il existe un risque réel de violation de données, de piratage et d'informations tombant entre de mauvaises mains.
Ce ne sont pas seulement nos données personnelles qui sont menacées. Le piratage de l’IA représente un risque réel – cela ne s’est pas encore produit, mais si des personnes malveillantes pouvaient pirater les systèmes d’IA, cela pourrait avoir de graves conséquences. Par exemple, les pirates pourraient contrôler des véhicules sans conducteur, pirater les systèmes de sécurité de l’IA pour accéder à des emplacements hautement sécurisés et même pirater des systèmes d’armes dotés de la sécurité de l’IA.
Les experts de la Defense Advanced Research Projects Agency (DARPA) du ministère américain de la Défense reconnaissent ces risques et travaillent déjà sur le projet Garantir la robustesse de l'IA contre la tromperie (GARD) de la DARPA, s'attaquant au problème de fond en comble. L'objectif du projet est de garantir que la résistance au piratage et à la falsification soit intégrée aux algorithmes et à l'IA.
Violation des droits d'auteur
Un autre danger de l'IA est la violation du droit d'auteur. Cela ne semble peut-être pas aussi grave que certains autres dangers que nous avons mentionnés, mais le développement de modèles d’IA comme GPT-4 expose tout le monde à un risque accru d’infraction.
Chaque fois que vous demandez à ChatGPT de créer quelque chose pour vous (qu'il s'agisse d'un article de blog sur les voyages ou d'un nouveau nom pour votre entreprise), vous lui fournissez des informations qu'il utilise ensuite pour répondre à de futures requêtes. Les informations qu’il vous renvoie pourraient enfreindre les droits d’auteur de quelqu’un d’autre, c’est pourquoi il est si important d’utiliser un détecteur de plagiat et de modifier tout contenu créé par l’IA avant de le publier.
Biais sociétaux et liés aux données
L'IA n'est pas humaine, elle ne peut donc pas être biaisée, n'est-ce pas ? Faux. Les personnes et les données sont utilisées pour former des modèles d'IA et chatbots, ce qui signifie que des données ou des personnalités biaisées entraîneront une IA biaisée. Il existe deux types de biais dans l’IA : les biais sociétaux et les biais liés aux données.
Avec de nombreux préjugés présents dans la société de tous les jours, que se passe-t-il lorsque ces préjugés deviennent partie intégrante de l'IA ? Les programmeurs responsables de la formation du modèle pourraient avoir des attentes biaisées, qui se retrouveraient ensuite dans les systèmes d’IA..
Ou encore, les données utilisées pour entraîner et développer une IA peuvent être incorrectes, biaisées ou collectées de mauvaise foi. Cela conduit à des biais dans les données, qui peuvent être aussi dangereux que les préjugés sociétaux. Par exemple, si un système de reconnaissance faciale est formé en utilisant principalement les visages de personnes blanches, il peut avoir du mal à reconnaître ceux issus de groupes minoritaires, perpétuant ainsi l'oppression.
Les robots prennent nos tâches
Le développement de chatbots tels que ChatGPT et Google Bard a suscité une toute nouvelle inquiétude concernant l'IA : le risque que robots nous prive de nos emplois. Nous voyons déjà les rédacteurs de l’industrie technologique être remplacés par l’IA, les développeurs de logiciels craignent de perdre leur emploi au profit des robots et les entreprises utilisent ChatGPT pour créer du contenu de blog et de médias sociaux plutôt que d’embaucher des rédacteurs humains.
Selon le Rapport 2020 du Forum économique mondial sur l’avenir de l’emploi, l'IA devrait remplacer 85 millions d'emplois dans le monde d'ici 2025. Même si l'IA ne remplace pas les écrivains, elle est déjà utilisée comme un outil par beaucoup. Ceux qui occupent des emplois qui risquent d'être remplacés par l'IA devront peut-être s'adapter pour survivre : par exemple, les rédacteurs peuvent devenir des ingénieurs en IA, ce qui leur permettra de travailler avec des outils comme ChatGPT pour la création de contenu plutôt que d'être remplacés par ces modèles.
Futurs risques potentiels liés à l'IA
Ce sont tous des risques immédiats ou imminents, mais qu'en est-il de certains des dangers de l'IA les moins probables mais toujours possibles que nous pourrions voir à l'avenir ? Il s'agit notamment de choses comme l'IA programmée pour nuire aux humains, par exemple, des armes autonomes entraînées pour tuer pendant une guerre.
Il existe ensuite le risque que l'IA se concentre uniquement sur son objectif programmé, développant des comportements destructeurs alors qu'elle tente d'atteindre cet objectif à tout prix, même lorsque les humains tentent d'empêcher que cela se produise.
Skynet nous a appris ce qui se passe lorsqu'une IA devient sensible. Cependant, même si l'ingénieur de Google Blake Lemoine a peut-être tenté de convaincre tout le monde que LaMDA, le générateur de chatbot artificiellement intelligent de Google était sensible en juin 2022, il n'existe heureusement aucune preuve à ce jour suggérant que cela soit vrai.
Les défis de la réglementation de l'IA
Le lundi 15 mai 202, Le PDG d'OpenAI, Sam Altman, a assisté à la première audience du Congrès sur l'intelligence artificielle, avertissement : "Si cette technologie tourne mal, elle peut tourner mal." L'OpenAI CO a clairement indiqué qu'il était favorable à la réglementation et a présenté bon nombre de ses propres idées à l'audience. Le problème est que l’IA évolue à une telle vitesse qu’il est difficile de savoir par où commencer en matière de réglementation..
Le Congrès veut éviter de commettre les mêmes erreurs commises au début de l'ère des médias sociaux, et une équipe d'experts aux côtés du chef de la majorité au Sénat, Chuck Schumer, travaille déjà sur des réglementations qui obligeraient les entreprises à révéler les sources de données qu'elles ont utilisées pour former. modèles et qui les a formés. Il faudra peut-être un certain temps avant que la manière exacte dont l’IA sera réglementée devienne claire, et il ne fait aucun doute qu’il y aura des réactions négatives de la part des entreprises d’IA.
La menace d'une intelligence générale artificielle
Il existe également le risque de création d’une intelligence générale artificielle (AGI) capable d’accomplir toutes les tâches qu’un être humain (ou un animal) pourrait accomplir. Souvent mentionné dans les films de science-fiction, nous sommes probablement encore à plusieurs décennies d’une telle création, mais si et quand nous créons une AGI, cela pourrait constituer une menace pour l’humanité.
De nombreuses personnalités publiques soutiennent déjà la conviction selon laquelle l'IA constitue une menace existentielle pour les humains, notamment Stephen Hawking, Bill Gates et même l'ancien PDG de Google, Eric Schmidt, qui a déclaré : "L'intelligence artificielle pourrait présenter des risques existentiels et les gouvernements doivent savoir comment pour garantir que la technologie ne soit pas utilisée à mauvais escient par des personnes malveillantes.
Alors, l'intelligence artificielle est-elle dangereuse et ses risques l'emportent-ils sur ses avantages ? Le jury n’a pas encore statué sur ce point, mais nous voyons déjà des preuves de certains des risques qui nous entourent à l’heure actuelle. D’autres dangers sont moins susceptibles de se concrétiser de sitôt, voire pas du tout. Une chose est cependant claire : les dangers de l’IA ne doivent pas être sous-estimés. Il est de la plus haute importance que nous veillions à ce que l'IA soit correctement réglementée dès le départ, afin de minimiser et, espérons-le, d'atténuer tout risque futur.
.