Une lettre ouverte signée par plus de mille personnalités du monde de la tech et de l'IA appelle à un moratoire de six mois sur les travaux liés aux systèmes d'intelligence artificielle plus puissants que GPT-4. Quelles sont les motivations derrière cet appel et l'IA peut-elle être développée de manière éthique et responsable ?
Le 29 mars dernier, le site Future of Life publiait une lettre ouverte appelant à une pause dans les travaux sur l'intelligence artificielle (IA), notamment dans le développement des systèmes plus puissants que GPT-4. Cette lettre vient s'ajouter aux nombreuses craintes et reproches prononcés par des personnalités au cours des derniers mois alors que les grands modèles de langage ont fait des progrès fulgurant en quelques mois. Parmi les 1 125 signataires figurent des noms importants du domaine des nouvelles technologies telles que Steve Wozniak, le cofondateur d'Apple, John Hopfield, inventeur du réseau de neurones de Hopfield, et Stuart Russell, professeur d'informatique à l'université de Berkeley et spécialiste reconnu de l'IA, et donnent un poids certain à cette requête. La présence d'Elon Musk, le fondateur de SpaceX et de Tesla, à l'origine d'OpenAi, la maison mère de ChatGPT, surprend autant qu'elle interpelle et ajoute à l'écho de la lettre ouverte à travers le monde.
Principe de réalité
La lettre souligne la nécessité d'un meilleur encadrement et d'une réflexion sur l'orientation et les priorités de ces travaux. Et, pour commencer ce pas de recul et cette réflexion salutaire, les signataires demandent donc un moratoire. Les laboratoires de recherche dans les universités ou les entreprises sont appelés à mettre en suspens leurs travaux. « Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire », précise le document. Toutes les intelligences artificielles ne sont pas visées. La lettre cible les LLM, ou « large language models », qui sont parvenus à « vectoriser » le langage, c'est-à-dire à en produire une représentation numérique à même d'être interprétée et traitée par la machine de manière souvent bluffante. L'adhésion massive au service ChatGPT d'Open AI, dont la quatrième génération vient d'être déployée, montre la puissance de ces nouveaux outils et leur valeur d'usage. La plateforme a atteint cent millions d'utilisateurs dès janvier, quelques mois après la sortie de son agent conversationnel. Mieux, à la sortie de GPT-4, il n'aura fallu que cinq jours pour attirer un million de nouveaux usagers. En comparaison, AirBnB a mis deux ans pour atteindre ce chiffre, Facebook 304 jours… Ce mouvement vertigineux inquiète. Même si les prouesses de ces modèles peuvent être impressionnantes, les limites sont aussi criantes. Fausses informations ou « hallucinations » s'ajoutent aux inquiétudes qui pèsent sur de nombreux métiers menacés. La lettre demande ainsi un alignement sur les principes d'Asilomar, ensemble de directives édictées lors de la conférence éponyme de 2017, pour un développement éthique de l'IA. Ces fondements visent à assurer que l'IA profite à l'ensemble de l'humanité, tout en minimisant les risques potentiels afin de favoriser la recherche pour le bien commun, la sécurité, la transparence, la coopération internationale et la responsabilité. Les principes d'Asilomar mettent également l'accent sur l'importance de l'équité, en évitant d'accorder un pouvoir excessif à un petit groupe d'individus ou d'entreprises. Et, en effet, la direction prise par les grands ordonnateurs de l'IA, ces derniers mois, semble aller à l'encontre de ce credo. OpenAI, n'a « d'ouvert » que le nom et n'a pas tenu ses promesses initiales. Le modèle est propriétaire et sa monétisation s'accélère. Microsoft a en ce sens investi 15 milliards dans l'entreprise afin d'intégrer ChatGPT à ses services en ligne (Bing, Azure, Edget), mais aussi à sa suite bureautique Office. Malgré cette lettre accablante, le retour en arrière paraît difficile.