La société de recherche en intelligence artificielle OpenAI a développé un modèle de langage, GPT-2, qui génère des textes tellement convaincants et cohérents qu'il est jugé trop dangereux pour être rendu public. Formé sur 40 gigaoctets de texte provenant d'Internet, GPT-2 peut imiter le style et le contenu des textes existants, créant ainsi des prolongations réalistes sur divers sujets. Cependant, ce potentiel pose également des risques d'abus, comme la génération de fausses nouvelles ou le harcèlement automatisé sur les réseaux sociaux. Confrontée à ces dangers, OpenAI a décidé de ne diffuser qu'une version réduite du modèle, éveillant des controverses au sein de la communauté de la recherche en intelligence artificielle. D'un côté, certains dénoncent un manque de transparence, tandis que d'autres saluent cette démarche éthique. OpenAI prévoit de réévaluer sa décision dans six mois et appelle les gouvernements à surveiller de manière systématique l'impact sociétal des technologies d'IA. Cette décision intervient alors que les préoccupations envers les menaces émergentes de l'intelligence artificielle, y compris la sécurité nationale, sont de plus en plus présentes.
La société de recherche en intelligence artificielle, OpenAI, a développé un nouveau modèle de langage appelé GPT-2, qui suscite des réactions controversées. Ce modèle est si performant dans la génération de textes fluides et convaincants, que l'organisation a décidé de ne pas le rendre public, craignant des abus potentiels.
GPT-2 a été formé avec 40 gigaoctets de textes récupérés sur Internet, ce qui lui permet de prédire le mot suivant dans une phrase et de générer des textes réalistes en fonction du contenu initial. Ce nouveau modèle dépasse largement son prédécesseur en produisant des textes plus longs et cohérents. Cependant, cette avancée présente des risques sérieux. Par exemple, GPT-2 pourrait être utilisé pour créer des fausses nouvelles, imiter des individus ou encore automatiser des commentaires abusifs et du spam sur les réseaux sociaux.
Un exemple marquant a été une réponse générée par GPT-2 à la phrase "Le recyclage est bon pour le monde, non, vous avez totalement tort". La machine a répondu de manière extrêmement négative et détaillée, critiquant le recyclage de tous les points de vue possibles. Ces capacités ont incité OpenAI à limiter la diffusion de GPT-2. Ils ont opté pour une version réduite, citant la sécurité et la responsabilité éthique comme raisons principales.
Cette décision a provoqué des débats au sein de la communauté de recherche en IA. Certains accusent OpenAI de manquer de transparence et de s'éloigner de leur philosophie ouverte, alors que d'autres soutiennent cette démarche responsable. Jack Clark, directeur des politiques chez OpenAI, explique que la priorité est de ne pas favoriser des usages malveillants de la technologie, un équilibre difficile à maintenir.
Elon Musk, un des premiers financiers d'OpenAI, a confirmé qu'il n'était plus impliqué dans l'organisation depuis plus d'un an, précisant que la séparation s'était faite en bons termes.
OpenAI n'a pas encore pris de décision finale sur la libération complète de GPT-2 et prévoit de réévaluer la situation dans six mois. Ils encouragent également les gouvernements à renforcer la surveillance de l'impact des technologies d'IA sur la société.
Cette prise de position d'OpenAI survient dans un contexte de préoccupations croissantes sur les menaces que représente l'IA, y compris pour la sécurité nationale. Tout récemment, le Président Trump a signé un décret sur l'intelligence artificielle, suite aux avertissements de l'agence de renseignement américaine sur les nouvelles menaces que posent l'intelligence artificielle et d'autres technologies émergentes comme l'informatique quantique et les véhicules autonomes.