La nouvelle fonctionnalité d’IA de Grammarly, qui fournit des retours d’écriture du point de vue supposé de « experts » renommés, suscite des critiques de la part d’universitaires qui estiment que l’outil semble « ressusciter » des chercheurs pour examiner le travail des utilisateurs. Cette fonctionnalité, appelée Revue par un expert, analyse le texte et génère des retours présentés du point de vue de chercheurs, journalistes et autres spécialistes spécifiques. Beaucoup des experts que l’outil prétend imiter ne sont plus en vie — une caractéristique qu’un historien médiéval sur BlueSky a qualifiée de « morbide ». Lancé en 2009 en tant qu’outil d’écriture et de grammaire assisté par IA, le société mère de Grammarly a été rebaptisée Superhuman en octobre, pour refléter sa transition d’un seul assistant d’écriture vers une suite d’agents de productivité IA, comprenant des outils pour la recherche, la planification, les courriels et l’automatisation des flux de travail.
Grammarly a introduit la fonctionnalité Revue par un expert l’été dernier. Via l’extension de navigateur Grammarly, les utilisateurs qui optent pour la version Superhuman Go peuvent choisir un expert et recevoir des retours générés par IA basés sur le domaine ou les travaux publiés de cet expert. « Notre agent de Revue par un expert examine le travail sur lequel l’utilisateur travaille, qu’il s’agisse d’un brief marketing ou d’un projet étudiant sur la biodiversité, et utilise notre modèle de langage sous-jacent pour faire ressortir du contenu d’expert pouvant aider l’auteur à façonner son travail », a déclaré un porte-parole de Superhuman à Decrypt. « Les experts suggérés dépendent du contenu de l’écriture évaluée. » Le porte-parole a expliqué que l’agent de Revue par un expert ne prétend pas obtenir l’approbation ou la participation directe de ces experts, mais fournit « des suggestions inspirées des travaux d’experts et oriente les utilisateurs vers des voix influentes dont ils peuvent ensuite explorer les travaux plus en profondeur. »
« Les experts dans Revue par un expert apparaissent parce que leurs œuvres publiées sont accessibles au public et largement citées », ont-ils dit. Lors de la tentative de cette fonctionnalité pour cet article, les experts suggérés par l’application comprenaient Margaret Sullivan, chroniqueuse médiatique et ancienne éditrice du New York Times, Jack Shafer, ancien rédacteur principal en médias chez Politico, et Lawrence Lessig, professeur à Harvard Law. D’autres options incluaient la chercheuse en éthique de l’IA Timnit Gebru et Helen Nissenbaum, professeure en sciences de l’information à Cornell Tech. Alors que la fonctionnalité vise à aider étudiants et professionnels à améliorer leurs compétences rédactionnelles, Vanessa Heggie, professeure d’histoire à l’Université de Birmingham, a remis en question si les « examinateurs » avaient donné leur consentement avant que l’entreprise ne les utilise dans l’application. « Je ne sais pas par où commencer, mais… Grammarly propose désormais une « revue par un expert » de votre travail par des universitaires vivants et décédés », a écrit Heggie sur LinkedIn. « Oui, des morts — sans la permission explicite de personne, ils créent de petits LLM basés sur leur travail récupéré et utilisent leurs noms et leur réputation. C’est obscène. » Brielle Harbin, ancienne professeure associée en sciences politiques à l’Académie navale des États-Unis, a qualifié cela de « développement étrange et préoccupant ». « Des choix comme ceux-ci — surtout lorsqu’ils sont faits sans contexte, consentement ou partenariat significatif avec des éducateurs — risquent d’accroître le scepticisme envers les outils d’IA dans l’enseignement supérieur », a-t-elle écrit sur LinkedIn. « Ironiquement, des décisions destinées à accélérer l’adoption pourraient finir par renforcer la résistance. La confiance et la collaboration sont très importantes en ce moment. » Grammarly n’est qu’une des entreprises créant des programmes d’IA conçus pour imiter de vraies personnes. En 2023, Meta a lancé une série de chatbots pour sa plateforme Meta AI, basés sur l’identité de célébrités telles que Snoop Dogg, Tom Brady, Kendall Jenner et Naomi Osaka. La même année, Khan Academy a lancé son tuteur IA Khanmigo, permettant aux étudiants de jouer des rôles dans des conversations avec des figures historiques, dont le Premier ministre britannique Winston Churchill, et Harriet Tubman, espionne de la guerre civile américaine et conductrice du chemin de fer clandestin.