Une différence de culture face à la sécurité de l’IA

Geoffrey Hinton figure majeure de l’histoire de l’intelligence artificielle estime que Google et OpenAI ont adopté deux logiques opposées dans leur approche du déploiement de leurs modèles conversationnels Pour celui qu’on surnomme le père fondateur des réseaux neuronaux les enjeux de réputation ont lourdement pesé sur la stratégie de Google notamment en matière de sécurité et de prudence dans la mise sur le marché de ses chatbots

Lors de son intervention le 16 juin 2025 dans le podcast britannique The Diary of a CEO Hinton est revenu sur les premiers mois décisifs de la course à l’intelligence artificielle générative entre OpenAI et Google Il a rappelé que Google a délibérément choisi de ne pas diffuser immédiatement ses modèles de type chatbot par crainte de porter atteinte à sa réputation à l’époque Google était encore perçu comme le géant technologique le plus fiable et le plus rigoureux du secteur face à une technologie aussi puissante que risquée les dirigeants ont préféré adopter une posture attentiste

OpenAI et l’avantage du risque assumé

Selon Hinton l’absence d’image publique forte à protéger a constitué un levier stratégique pour OpenAI Contrairement à Google la start-up menée par Sam Altman ne portait pas encore le poids d’une réputation mondiale Cela lui a permis de prendre davantage de risques et d’accélérer la mise en ligne de ChatGPT dès la fin de l’année 2022 devenant ainsi le déclencheur d’une révolution mondiale dans le domaine de l’intelligence artificielle générative Pour Hinton OpenAI n’avait rien à perdre et a donc osé là où Google a temporisé

👉🏼 Lecture complémentaire :  Qu'est-ce que Midjourney | Définition, avantages et comment l'utiliser

À l’époque même les cadres de Google en interne insistaient sur la prudence Un rapport de CNBC a révélé qu’après le lancement de ChatGPT les dirigeants de l’entreprise dont le chef de l’IA affirmaient qu’ils ne pouvaient pas publier immédiatement un outil équivalent en raison du risque réputationnel Trop grande trop scrutée trop influente Google devait selon eux agir de manière plus conservatrice qu’une start-up agile et moins exposée

Une responsabilité assumée mais des défis persistants chez Google

L’ancien directeur de Google DeepMind Demis Hassabis avait dès février 2024 mis en garde contre les dangers à long terme de systèmes autonomes dotés d’agents capables d’agir de manière incontrôlable Il avait publiquement plaidé pour la mise en place d’un organisme de régulation capable d’encadrer les projets d’IA à haute intensité technologique

Mais malgré cette approche fondée sur la précaution Google n’a pas échappé aux erreurs En 2023 Bard devenu Gemini a connu des polémiques majeures liées à des réponses biaisées voire incorrectes que ce soit à l’écrit ou à travers sa fonction de génération d’images Le PDG Sundar Pichai avait alors reconnu les manquements de l’entreprise promettant dans une note interne de profondes réformes

Le regard critique de Geoffrey Hinton

Ayant passé plus de dix ans chez Google Geoffrey Hinton affirme aujourd’hui que l’entreprise a agi avec sérieux et responsabilité en matière d’IA À aucun moment selon lui il n’a été empêché de s’exprimer ou de travailler sur la sécurité des modèles génératifs Au contraire Google l’aurait encouragé à poursuivre ses recherches dans ce domaine tout en conservant une certaine forme d’autocensure Hinton admet que lorsqu’on travaille pour une multinationale on évite naturellement de critiquer frontalement son employeur

👉🏼 Lecture complémentaire :  Comment Google suit-il votre position sans GPS et comment y mettre fin ?

C’est d’ailleurs cette liberté intellectuelle qu’il recherchait en quittant l’entreprise afin de pouvoir s’exprimer plus ouvertement sur les dangers systémiques liés à l’intelligence artificielle Il insiste sur la nécessité de débattre publiquement des choix éthiques technologiques et politiques qui structurent aujourd’hui le développement de l’IA à l’échelle mondiale

OpenAI et Sam Altman une éthique à clarifier

Interrogé lors du podcast sur la figure de Sam Altman Geoffrey Hinton s’est montré plus réservé Il a affirmé ne pas le connaître personnellement et ne pas être en mesure de juger si Altman possède une véritable boussole morale Il s’est contenté de répondre nous verrons laissant entendre que les actes à venir parleront d’eux-mêmes

Cette prudence illustre les tensions croissantes autour des questions de gouvernance et d’éthique chez OpenAI L’entreprise a récemment assoupli certaines règles internes concernant les comportements autorisés par ses modèles Ceci en réponse à des retours d’utilisateurs estimant que la plateforme censurait trop de contenus Sam Altman a défendu ce repositionnement lors d’un entretien au TED2025 soulignant que la sécurité restait une priorité structurée autour d’un cadre de préparation mais plus souple qu’auparavant

Une compétition acharnée et un équilibre à trouver

La rivalité entre OpenAI et Google ne se limite plus à une question de calendrier ou de réputation Elle reflète deux philosophies du progrès technologique L’une mise sur la prudence l’autre sur la vitesse L’une veut protéger à tout prix son image l’autre cherche à maximiser son avantage avant d’être régulée

👉🏼 Lecture complémentaire :  Combien de temps faut-il à Google pour indexer un nouveau site ?

Mais dans les deux cas le défi reste le même Comment développer une intelligence artificielle toujours plus puissante sans mettre en péril les équilibres sociaux économiques et politiques déjà fragiles Geoffrey Hinton en son rôle d’expert et de témoin de premier plan alerte sur ce point essentiel en rappelant que le progrès technologique n’a de sens que s’il est au service du bien commun

Conclusion

Le témoignage de Geoffrey Hinton permet de mieux comprendre les choix divergents de Google et OpenAI en matière d’intelligence artificielle générative Si l’un a privilégié la sécurité au risque de perdre du terrain l’autre a préféré innover rapidement quitte à éveiller des inquiétudes éthiques Dans ce duel technologique ce sont les utilisateurs les citoyens et les régulateurs qui auront le dernier mot en imposant leurs propres exigences en matière de transparence de sécurité et de responsabilité

Sébastian Magni est un Spécialiste du SEO et Inbound Marketing chez @LCM

0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest

0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires