Science

Comment les IA de génération de langage pourraient transformer la science

Selon Shobita Parthasarathy, spécialiste de la gouvernance des technologies émergentes à l’Université du Michigan à Ann Arbor, les algorithmes d’apprentissage automatique qui génèrent un langage fluide à partir de grandes quantités de texte pourraient changer la façon dont la science est pratiquée, mais pas nécessairement pour le mieux.

dans un rapport publié le 27 avril, Parthasarathy et d’autres chercheurs tentent d’anticiper les impacts sociétaux des technologies émergentes d’intelligence artificielle (IA) appelées grands modèles de langage (LLM). Ceux-ci peuvent produire une prose étonnamment convaincante, traduire entre les langues, répondre aux questions et même produire du code. Les entreprises qui les construisent – y compris Google, Facebook et Microsoft – visent à les utiliser dans des chatbots et des moteurs de recherche, et à résumer des documents. (Au moins une entreprise, Ought, à San Francisco, en Californie, teste des LLM dans la recherche ; elle construit un outil appelé « Elicit » pour répondre aux questions en utilisant la littérature scientifique.)

Les LLM sont déjà controversés. Ils répètent parfois des erreurs ou des stéréotypes problématiques dans les millions ou les milliards de documents sur lesquels ils sont formés. Et les chercheurs craignent que des flux de langage généré par ordinateur apparemment faisant autorité et qui ne se distinguent pas de l’écriture humaine puissent causer des perturbations et de la confusion.

Parthasarathy dit que bien que les LLM pourraient renforcer les efforts pour comprendre la recherche complexe, ils pourraient également approfondir le scepticisme du public à l’égard de la science. Elle a parlé à Nature sur le rapport.

Comment les LLM pourraient-ils aider ou entraver la science ?

J’avais initialement pensé que les LLM pourraient avoir des effets de démocratisation et d’autonomisation. En ce qui concerne la science, ils pourraient permettre aux gens de tirer rapidement des enseignements de l’information : en interrogeant les symptômes de la maladie par exemple, ou en générant des résumés de sujets techniques.

Mais les résumés algorithmiques pourraient faire des erreurs, inclure des informations obsolètes ou supprimer des nuances et des incertitudes, sans que les utilisateurs ne s’en rendent compte. Si quelqu’un peut utiliser les LLM pour rendre compréhensible une recherche complexe, il risque d’obtenir une vision simplifiée et idéalisée de la science qui est en contradiction avec la réalité désordonnée qui pourrait menacer le professionnalisme et l’autorité. Cela pourrait également exacerber les problèmes de confiance du public dans la science. Et les interactions des gens avec ces outils seront très individualisées, chaque utilisateur obtenant ses propres informations générées.

Le fait que les LLM pourraient s’appuyer sur des recherches obsolètes ou peu fiables n’est-il pas un énorme problème ?

oui Mais cela ne signifie pas que les gens n’utiliseront pas les LLM. Ils sont attrayants et ils auront un vernis d’objectivité associé à leur production fluide et à leur description comme de nouvelles technologies passionnantes. Le fait qu’ils aient des limites – qu’ils puissent être construits sur des ensembles de données partiels ou historiques – peut ne pas être reconnu par l’utilisateur moyen.

Il est facile pour les scientifiques d’affirmer qu’ils sont intelligents et de se rendre compte que les LLM sont des outils utiles mais incomplets – pour commencer une revue de la littérature, par exemple. Pourtant, ces types d’outils peuvent réduire leur champ de vision et il peut être difficile de reconnaître quand un LLM se trompe.

Les LLM pourraient être utiles dans les humanités numériques, par exemple : pour résumer ce qu’un texte historique dit sur un sujet particulier. Mais les processus de ces modèles sont opaques et ne fournissent pas de sources parallèlement à leurs résultats. Les chercheurs devront donc réfléchir attentivement à la manière dont ils vont les utiliser. J’ai vu quelques usages proposés en sociologie et j’ai été surpris par la crédulité de certains chercheurs.

Qui pourrait créer ces modèles pour la science ?

Je suppose que les grands éditeurs scientifiques seront les mieux placés pour développer des LLM spécifiques à la science (adaptés à partir de modèles généraux), capables de parcourir le texte intégral exclusif de leurs articles. Ils pourraient également chercher à automatiser certains aspects de l’examen par les pairs, tels que l’interrogation de textes scientifiques pour savoir qui devrait être consulté en tant qu’examinateur. Les LLM peuvent également être utilisés pour essayer de repérer des résultats particulièrement innovants dans des manuscrits ou des brevets, et peut-être même pour aider à évaluer ces résultats.

Les éditeurs pourraient également développer un logiciel LLM pour aider les chercheurs des pays non anglophones à améliorer leur prose.

Les éditeurs pourraient bien sûr conclure des accords de licence, mettant leur texte à la disposition de grandes entreprises pour inclusion dans leurs corpus. Mais je pense qu’il est plus probable qu’ils essaieront de garder le contrôle. Si tel est le cas, je soupçonne que les scientifiques, de plus en plus frustrés par leur connaissance des monopoles, le contesteront. Il existe un certain potentiel pour les LLM basés sur des articles en libre accès et des résumés d’articles payants. Mais il pourrait être difficile d’obtenir un volume suffisant de textes scientifiques à jour de cette manière.

Les LLM pourraient-ils être utilisés pour créer des papiers réalistes mais faux ?

Oui, certaines personnes utiliseront des LLM pour générer des papiers faux ou presque faux, si c’est facile et qu’ils pensent que cela aidera leur carrière. Néanmoins, cela ne signifie pas que la plupart des scientifiques, qui souhaitent faire partie des communautés scientifiques, ne pourront pas s’entendre sur les réglementations et les normes d’utilisation des LLM.

Comment réglementer l’utilisation des LLM ?

Je trouve fascinant que pratiquement aucun outil d’IA n’ait été soumis à des réglementations systématiques ou à des mécanismes de maintien de normes. C’est également vrai pour les LLM : leurs méthodes sont opaques et varient selon le développeur. Dans notre rapport, nous formulons des recommandations pour que les organismes gouvernementaux interviennent dans la réglementation générale.

Spécifiquement pour l’utilisation possible des LLM en science, la transparence est cruciale. Ceux qui développent des LLM doivent expliquer quels textes ont été utilisés et la logique des algorithmes impliqués – et doivent indiquer clairement si un logiciel informatique a été utilisé pour générer une sortie. Nous pensons que la US National Science Foundation devrait également soutenir le développement d’un LLM formé sur tous les articles scientifiques accessibles au public, dans une grande diversité de domaines.

Et les scientifiques doivent se méfier des revues ou des bailleurs de fonds qui s’appuient sur les LLM pour trouver des pairs examinateurs ou (éventuellement) étendre ce processus à d’autres aspects de l’examen tels que l’évaluation des manuscrits ou des subventions. Parce que les LLM se tournent vers les données passées, ils sont susceptibles d’être trop conservateurs dans leurs recommandations.

Cet article est reproduit avec permission et ce que première publication le 28 avril 2022.

.

Leave a Reply

Your email address will not be published.