Des revues scientifiques de premier plan
Dont Science et le groupe Springer-Nature, ont annoncé de nouvelles politiques éditoriales interdisant ou restreignant aux chercheurs de rédiger des études scientifiques à l’aide de robots d’intelligence artificielle avancés tels que ChatGPT.
Le chatbot ChatGPT d’OpenAI a attiré l’attention en décembre pour sa capacité à répondre aux requêtes des utilisateurs avec une sortie de type humain, et de nombreux experts ont averti que la technologie révolutionnaire pourrait provoquer des perturbations importantes.
Les modèles de langage sont salués par certains chercheurs en intelligence artificielle comme une avancée majeure qui pourrait révolutionner l’industrie et même remplacer des outils comme le moteur de recherche de Google.
La direction de Google aurait également émis un « code rouge » pour l’activité de moteur de recherche de l’entreprise après avoir publié un chatbot expérimental.
Les chatbots IA ont également démontré leur capacité à résumer la recherche
À raisonner et à répondre à des questions logiques, et plus récemment, à réussir les examens des écoles de commerce et de médecine qui sont cruciaux pour la réussite des étudiants.
Cependant
Les utilisateurs du chatbot AI ont également souligné qu’il fournit parfois des réponses plausibles mais incorrectes, avec des erreurs flagrantes pour certaines requêtes.
Holden Thorp
Rédacteur en chef des revues scientifiques, a noté que le groupe d’édition met à jour sa politique pour spécifier qu' »aucun texte généré par ChatGPT (ou tout autre outil d’IA) ne peut être utilisé dans le travail, et que des nombres, des images, ou les graphiques sont le produit de tels outils ».
Les éditeurs de revues soulignent que les violations de ces politiques peuvent constituer une inconduite scientifique au même titre que le plagiat ou la manipulation déloyale des images de recherche.
Les ensembles de données licites et intentionnels générés par l’IA à des fins de recherche dans des documents de recherche ne relèvent pas du champ d’application du changement de politique, a-t-il déclaré.
Springer-Nature
Qui publie près de 3 000 revues, a également exprimé mardi dans un éditorial son inquiétude quant au fait que les personnes utilisant le modèle pourraient faire passer le texte écrit par l’IA comme le leur, ou utiliser de tels systèmes pour une recherche de revue de littérature incomplète.
Le groupe d’édition a noté que ChatGPT a reconnu plusieurs études achevées mais non publiées comme auteurs officiels.
Il a annoncé que ces outils de modèle de langage « seront acceptés en tant qu’auteurs d’articles de recherche », citant que les outils d’IA ne peuvent pas assumer la responsabilité et la responsabilité des auteurs humains.
Les chercheurs qui utilisent de tels outils dans leurs recherches devraient également documenter leur utilisation dans les sections Méthodes ou Remerciements des articles scientifiques, note Springer-Nature.
D’autres groupes d’édition
Tels qu’Elsevier, avec plus de 2 500 revues, ont également révisé leurs politiques d’auteur après que ChatGPT ait gagné du terrain.