Google remet en question ses principes éthiques en matière d’IA et des technologies controversées
Dans un tournant significatif, Google a levé son engagement à ne pas utiliser l’intelligence artificielle (IA) pour des applications militaires ou de surveillance, suscitant des inquiétudes parmi ses employés. Cette décision intervient quelques semaines après le début du second mandat de Donald Trump et marque une rupture avec les valeurs éthiques que l’entreprise avait adoptées en 2018, lorsqu’un grand nombre de ses salariés avaient protesté contre une collaboration avec le Pentagone sur des projets de drones.
Les dirigeants de Google, James Manyika et Demis Hassabis, ont récemment expliqué que le paysage géopolitique actuel rendait incontournable le développement d’une IA qui respecte des valeurs fondamentales comme la liberté et les droits humains. Cependant, cette nouvelle approche laisse de nombreux employés perplexes et inquiets, avec certains exprimant que l’entreprise devrait s’éloigner des activités liées à la guerre.
Il y a à peine quelques jours, l’entreprise avait toujours affirmé qu’elle ne poursuivrait pas d’applications d’IA pouvant causer des dommages globaux. La disparition de cette mention sur leurs principes d’IA est perçue par certains comme un signal alarmant. Margaret Mitchell, qui a aidé à établir l’équipe d’IA éthique chez Google, a averti que cette suppression compromettait l’intégrité de l’éthique de l’IA à l’intérieur de l’entreprise, ouvrant la voie au déploiement de technologies potentiellement mortelles.
En dépit de ces changements, Google affirme que des mesures de « surveillance humaine appropriée » seront maintenues pour s’assurer que ses travaux respectent le droit international et les droits humains. Cependant, cette promesse d’éthique suscite des doutes face à un alignement apparent de Google sur les politiques de Trump, avec des critiques affirmant que l’entreprise agit davantage comme une « machine de guerre industrielle ».
Le contexte actuel est également marqué par une tendance dans le secteur technologique à reconsidérer les engagements en matière de diversité et d’inclusion, souvent en réaction aux politiques gouvernementales. Parul Koul, un ingénieur logiciel chez Google, a exprimé ses préoccupations quant à l’absence de consultation des employés dans de telles décisions, soutenant que le personnel est majoritairement en faveur d’un non-engagement dans des activités guerroyantes.
Le futur de l’IA et son utilisation soulèvent ainsi des questions éthiques majeures, alors que des entreprises comme Google choisissent de rencontrer des défis technologiques complexes dans un monde de plus en plus turbulent. Les salariés, eux, continuent de revendiquer une position éthique au sein d’une entreprise dont les valeurs semblent évoluer avec le temps et le pouvoir des intérêts politiques.