“Don’t Be Evil” ? Google ouvre la porte aux armes autonomes

Google vient de modifier en toute discrétion ses principes sur l’IA, supprimant les interdictions sur les armes et la surveillance. Un revirement qui soulève des interrogations : stratégie assumée ou renoncement éthique ? Pourquoi ce changement maintenant ? Qui en profitera ? Plongez dans les dessous de cette décision controversée.

Par Zineb Mouhoubi Publié le 07/02/2025 à 15:20
Google
“Don’t Be Evil” ? Google ouvre la porte aux armes autonomes © Point GPhone

Google a modifié ses principes encadrant l’usage de l’intelligence artificielle (IA), supprimant plusieurs engagements qui interdisaient explicitement le développement de technologies destinées aux armes et à la surveillance ne respectant pas les normes internationales. Ces changements, dévoilés dans une mise à jour discrète d’un document publié en 2018, ouvrent la voie à une participation plus active de l’entreprise dans des projets sensibles, notamment dans les domaines de la défense et de la sécurité.

Une refonte des engagements éthiques de Google

Les principes éthiques sur l’IA de Google avaient été établis en 2018, à la suite d’une controverse interne liée à la participation de l’entreprise au projet Maven, un programme militaire américain de drones utilisant l’intelligence artificielle. Face à la pression de nombreux employés, Google avait décidé de ne pas renouveler son contrat avec le Pentagone et avait publié une liste de principes directeurs, interdisant certains usages de l’IA, notamment :

  • Le développement d’armes ou de technologies dont l’objectif principal est de causer ou faciliter des blessures humaines ;
  • L’utilisation de l’IA pour la surveillance lorsqu’elle viole les normes internationales ;
  • Les technologies allant à l’encontre du droit international et des droits humains ;
  • Tout usage risquant d’entraîner des dommages à grande échelle.

Or, ces restrictions ont été supprimées dans la mise à jour des principes de Google. Désormais, au lieu d’une liste d’interdictions claires, l’entreprise se limite à affirmer qu’elle mettra en place une supervision humaine, des évaluations rigoureuses et des mécanismes de retour d’expérience afin d’aligner ses technologies avec les normes internationales et les droits humains.

Dans un article de blog publié pour expliquer ces modifications, James Manyika, vice-président senior de Google, et Demis Hassabis, PDG de DeepMind, justifient ces changements par l’évolution rapide des technologies de l’IA et l’importance pour les démocraties de mener le développement de ces outils. Ils insistent sur le fait que Google continuera à s’appuyer sur ses missions scientifiques et ses principes fondamentaux tout en répondant aux enjeux actuels, notamment en matière de sécurité nationale.

Voir cette publication sur Instagram

Une publication partagée par BLOOM (@bloom_media.fr)

Des critiques internes et une réorientation stratégique

Ces modifications ne sont pas passées inaperçues en interne. Plusieurs employés de Google ont confié à WIRED leur préoccupation face à la suppression des interdictions. Parul Koul, ingénieure et présidente du syndicat Alphabet Workers Union-CWA, estime que ce changement représente un abandon des engagements éthiques pris en 2018, sans consultation des employés ni du public. Elle rappelle également que beaucoup de salariés s’opposent à la participation de Google dans des projets militaires.

La révision des principes de la firme de Mountain View s’inscrit dans un contexte géopolitique marqué par la course à l’IA et les tensions croissantes entre grandes puissances. L’entreprise souligne la nécessité d’un développement responsable et collaboratif, insistant sur son rôle central dans la création d’une IA sécurisée et respectueuse des valeurs démocratiques. Toutefois, les suppressions d’engagements clés, comme celui d’être « socialement bénéfique »ou de viser « l’excellence scientifique », soulèvent des interrogations sur la nature et la portée de cette nouvelle orientation.

Par ailleurs, si l'entreprise affirme que ses règles d’utilisation de Google Cloud et de ses services interdisent encore certains usages (comme les activités illégales, le terrorisme ou la promotion de la violence), son contrat avec le gouvernement israélien dans le cadre du projet Nimbus continue d’être un sujet de controverse. Ce projet, qui fournit une infrastructure cloud aux ministères israéliens, a suscité des critiques, certains observateurs estimant qu’il pourrait indirectement bénéficier aux forces armées du pays.

Par ailleurs, l’évolution des principes de la firme pourrait ouvrir de nouvelles opportunités commerciales, notamment auprès de gouvernements et institutions cherchant à exploiter l’IA pour des applications sensibles. Cependant, cette décision risque aussi d’accentuer les tensions avec une partie des employés et d’alimenter les inquiétudes sur l’éthique et la transparence des initiatives de l’entreprise.

Passionnée de technologie, je décrypte l'univers des smartphones et des innovations récentes. Mon objectif est simple : partager des analyses et des conseils pour aider chacun à naviguer dans cet écosystème en constante évolution.

Aucun commentaire à «“Don’t Be Evil” ? Google ouvre la porte aux armes autonomes»

Laisser un commentaire

Les Commentaires sont soumis à modération. Seuls les commentaires pertinents et étoffés seront validés. - * Champs requis