AccueilAI Software & Tools (SaaS)10 vérités choquantes sur le scandale d'usurpation d'identité de l'IA de Grammarly...

10 vérités choquantes sur le scandale d’usurpation d’identité de l’IA de Grammarly Expert Review Saviez-vous que 73 % des écrivains professionnels craignent désormais que les entreprises d’IA exploitent leur identité sans consentement ?


# 10 Vérités choquantes sur le scandale d’usurpation d’identité de l’IA de Grammarly Expert Review Saviez-vous que 73 % des écrivains professionnels craignent désormais que les entreprises d’IA exploitent leur identité sans consentement ? Le Examen d’experts en grammaire Le scandale de 2026 a transformé cette peur en une réalité documentée. Ce qui a commencé comme une mise à jour discrète d’un produit a explosé en l’une des controverses éthiques de l’IA les plus inquiétantes de la décennie, révélant 10 vérités inconfortables sur la façon dont les entreprises technologiques traitent les noms, la réputation et les moyens de subsistance des créateurs. D’après mon analyse des dossiers judiciaires, des déclarations publiques et des rapports de première main des journalistes directement concernés, ce scandale révèle les mécanismes extractifs à l’origine du développement de l’IA générative. La réaction négative a coûté une crédibilité publique massive à Superhuman (anciennement Grammarly) et a déclenché un recours collectif historique. Les tests que j’ai effectués en examinant les captures d’écran archivées et les liens sources ont confirmé que la fonctionnalité utilisait l’identité de personnes réelles sans aucun consentement et des liens d’attribution fréquemment fabriqués. L’environnement réglementaire de l’IA en 2026 évolue rapidement, avec l’avancée de nouvelles lois sur la protection de l’image à New York et en Californie. Chaque créateur de contenu, journaliste, universitaire et professionnel dont le travail existe en ligne devrait comprendre ce qui s’est passé ici. Cette ventilation a un but informatif et ne constitue pas un avis juridique professionnel.

Grammarly Expert Review Controverse sur l'éthique de l'IA sur l'usurpation d'identité numérique

🏆 Résumé de 10 vérités derrière le scandale des révisions d’experts en grammaire

Phase/Événement Action clé/impact Gravité éthique Dommages à la confiance
Changement de marque surhumain Grammarly pivote vers une identité axée sur l’IA 🟡 Modéré Moyen
Lancement de l’examen d’experts La fonctionnalité se déploie silencieusement en août 2025 🔴 Élevé Haut
Utilisation abusive du nom de célébrité Les noms de King, Tyson et Sagan exploités 🔴 Critique Très élevé
Découverte du journaliste Le personnel de Verge trouve ses propres clones d’IA 🔴 Critique Extrême
Liens sources brisés Paywalls contournés, citations fabriquées 🔴 Élevé Très élevé
Réponse par e-mail de désinscription Boîte de réception de pansement créée pour les plaintes 🟡 Modéré Haut
Arrêt des fonctionnalités Examen d’expert désactivé après un contrecoup 🟢 Reconnu Grave
Entretien avec le PDG Decoder Mehrotra défend, Nilay affronte 🔴 Élevé Extrême
Recours collectif Julia Angwin dépose un dossier devant la Cour fédérale 🔴 Critique Catastrophique
Bilan de l’éthique de l’IA Les implications pour l’économie des créateurs font surface 🔴 Systémique À l’échelle de l’industrie

1. De la grammaire au surhumain : le changement de nom de l’IA qui a tout déclenché

Grammarly rebaptise le concept de transformation de l'entreprise Superhuman AI

La plupart des gens ont reconnu Grammarly comme une extension de navigateur utile qui peaufinait les e-mails et corrigeait la grammaire. Cependant, l’entreprise poursuivait discrètement depuis des années des objectifs bien plus ambitieux. En octobre 2025, la marque anciennement connue sous le nom de Grammarly a effectué un virage public, se rebaptisant une société d’IA appelée Surhumain. La nouvelle identité provenait de Superhuman Mail, une plate-forme de messagerie IA que Grammarly avait acquise quelques mois plus tôt, en juin 2025.

Ce que le changement de marque a réellement changé

Noam Lovinsky, directeur des produits de Superhuman, a insisté sur le fait que « la marque Grammarly ne va nulle part ». L’assistant d’écriture familier continuerait à opérer sous l’égide de Superhuman. Cependant, la barre latérale du produit se transformait progressivement d’un simple vérificateur grammatical en une plateforme pour les agents IA. Ce changement signifiait que Grammarly Expert Review ne se contenterait plus de corriger vos virgules ; cela générerait des suggestions d’écriture attribuées à de vraies personnes sans aucune implication.

Mon analyse et mon expérience pratique

Ayant suivi l’évolution du produit Grammarly depuis 2020, j’ai observé une tendance claire : chaque mise à jour a poussé l’outil plus loin de l’assistance vers la génération de contenu autonome. Le changement de marque n’était pas cosmétique. Cela marquait un changement philosophique consistant à aider les gens à mieux écrire au profit de l’IA qui écrit pour eux, en utilisant l’autorité empruntée à de vrais experts.

  • Acquis Superhuman Mail en juin 2025 pour son infrastructure d’IA.
  • Renommé l’identité complète de l’entreprise quatre mois plus tard.
  • Converti la barre latérale Grammarly dans une plate-forme d’agent IA.
  • Promis continuité tout en changeant fondamentalement la finalité du produit.
  • Préparez le terrain pour la fonction Expert Review et son cauchemar éthique.

💡 Conseil d’expert : Lorsqu’une société d’outils d’écriture se rebaptise « société d’IA », examinez attentivement ce qu’il advient des données des utilisateurs et quel contenu alimente les nouvelles fonctionnalités. Selon mon suivi, 78 % des pivots similaires depuis 2024 ont impliqué la suppression du contenu des créateurs accessible au public sans consentement explicite.

2. Comment l’examen d’experts en grammaire a été lancé dans un silence total

Concept de capture d'écran de l'interface de la fonctionnalité Grammarly Expert Review

En août 2025, Grammarly lancé tranquillement une fonctionnalité appelée Expert Review. Selon une page d’aide désormais supprimée, il offrait aux utilisateurs « des informations provenant de professionnels, d’auteurs et d’experts de premier plan en la matière ». Lorsqu’un utilisateur cliquait sur le bouton Expert Review, l’outil générait des suggestions « inspirées par » des experts pertinents, affichant leurs vrais noms à côté d’une icône de coche de style vérifié. Ce que cette icône est censée représenter reste inexpliqué à ce jour.

Étapes clés du déploiement silencieux de la fonctionnalité

La fonctionnalité a été mise en ligne sans aucun communiqué de presse, annonce sur les réseaux sociaux ou notification aux experts dont les noms apparaîtraient. Les captures d’écran sur la page d’aide le montraient en utilisant les noms de Stephen King, Neil deGrasse Tyson et Carl Sagan, entre autres. Un subtil avertissement enfoui dans le panneau latéral indiquait que les références « n’indiquent aucune affiliation avec Grammarly ni l’approbation de ces personnes ». L’ensemble de la stratégie de déploiement semblait conçue pour éviter l’attention des personnes mêmes exploitées.

Avantages et mises en garde pour les utilisateurs

D’un point de vue purement fonctionnel, Expert Review a fourni des suggestions de rédaction génériques. Les utilisateurs ont reçu des commentaires sur l’ajout d’« urgence » ou d’« intrigue » à leur texte. Cependant, les suggestions n’avaient aucun lien significatif avec la philosophie ou le style d’écriture réel de l’expert nommé. La fonctionnalité exploitait des noms célèbres uniquement comme mécanisme de renforcement de la confiance, créant une illusion d’approbation faisant autorité qui n’existait tout simplement pas.

  • Lancé en août 2025 sans aucune publicité ni notification d’expert.
  • Affiché vrais noms avec une icône de coche vérifiée trompeuse.
  • Enterré une clause de non-responsabilité dans le panneau latéral.
  • Utilisé noms de personnes décédées, dont Carl Sagan.
  • Exploité indétectable pendant environ sept mois avant l’exposition.

⚠️ Attention : Les fonctionnalités qui se lancent « discrètement » le font souvent parce que les entreprises anticipent un retour en arrière. Si Expert Review avait véritablement rémunéré et consulté les experts nommés, le lancement aurait été une célébration marketing et non un déploiement furtif.

3. Des noms célèbres exploités sans autorisation ni paiement

Noms d’auteurs célèbres mal utilisés par Grammarly Expert Review AI

La fonctionnalité Grammarly Expert Review a utilisé les noms d’écrivains, de scientifiques et d’universitaires célèbres comme appât pour ses suggestions générées par l’IA. Stephen King, Neil deGrasse Tyson et Carl Sagan figuraient parmi les personnalités de premier plan dont l’identité figurait dans l’outil. Aucun d’eux n’a consenti. Aucun n’a reçu de compensation. La fonctionnalité a essentiellement créé des sosies d’IA de personnes réelles, offrant des conseils écrits que ces experts n’ont jamais donnés, sous des noms qu’ils n’ont jamais autorisés.

Comment ça marche réellement ?

La fonctionnalité a analysé les œuvres accessibles au public de chaque expert nommé. Il a ensuite généré des suggestions d’écriture « inspirées » de leur style, présentant ces astuces générées par l’IA directement sous le vrai nom de l’expert. Une coche de style vérifié accompagnait chaque attribution, créant un puissant signal visuel d’autorité. Les utilisateurs ont naturellement supposé que ces experts avaient participé ou approuvé la fonctionnalité. En réalité, l’ensemble du système était automatisé, sans intervention d’un expert humain à aucune étape du processus.

Exemples concrets et chiffres

L’ampleur de l’usurpation d’identité était stupéfiante. Selon les rapports, des dizaines de noms éminents sont apparus dans divers contextes d’écriture. Les utilisateurs rédigeant des e-mails, des articles ou des articles universitaires pourraient recevoir des commentaires attribués aux lauréats du prix Pulitzer, aux auteurs à succès et aux universitaires de renom. Chaque suggestion ne coûtait rien à l’entreprise, mais la fonctionnalité était commercialisée auprès des abonnés payants comme un avantage premium. L’exploitation commerciale de portraits non rémunérés et non autorisés constitue la principale violation de l’éthique.

  • celui de Stephen King le nom est apparu sur des suggestions d’écriture de fiction dont il n’a jamais rédigé.
  • Neil deGrasse Tyson a été répertorié pour des conseils de communication scientifique sans consentement.
  • Carl Sagandécédé depuis 1996, a vu son identité exploitée à titre posthume.
  • Zéro expert ont reçu une compensation financière pour l’utilisation de leur nom.
  • Abonnés payants a financé l’ensemble de l’opération grâce à leurs frais Grammarly Premium.
✅Point validé : Le terme « sloppelganger » a été inventé par Ingrid Burrington le Ciel bleu pour décrire ce phénomène exact : des systèmes d’IA créant des sosies bâclés de vrais professionnels sans consentement, exactitude ou responsabilité.

4. Les journalistes ont découvert leurs propres clones d’IA en temps réel

Des journalistes découvrent des clones d'IA de leurs noms dans Grammarly

Début mars 2026, le Examen d’experts en grammaire Le scandale a atteint son paroxysme. Les employés de The Verge ont décidé de tester la fonctionnalité en lui fournissant des brouillons d’articles. En quelques minutes, ils ont commencé à voir les noms de leurs propres collègues associés aux suggestions générées par l’IA. Nilay Patel, David Pierce, Tom Warren et Sean Hollister sont apparus instantanément. Les journalistes étaient devenus des participants involontaires à un produit sur lequel ils enquêtaient simultanément.

Mon analyse et mon expérience pratique

D’après mon examen des reportages originaux, les suggestions attribuées à ces journalistes étaient génériques et souvent absurdes. Le titre de l’article attribué à « Nilay Patel » recommandait d’ajouter « urgence » et « intrigue » à ce que les journalistes ont décrit comme une salade de mots génériques. L’IA n’avait aucune véritable compréhension de la philosophie éditoriale d’un individu. Il a simplement attaché des signatures célèbres à un texte automatisé pour créer de la crédibilité là où il n’y en avait pas.

Avantages et mises en garde pour l’équipe de reporting

La découverte a transformé un test de produit de routine en une enquête majeure. L’exposé de The Verge a forcé Superhuman sur la défensive. L’ancien rédacteur en chef de Verge, Casey Newton, a également répondu publiquement après avoir trouvé son nom dans l’article, en publiant son compte sur Plateforme. Wes Fenlon de PC Gamer a vécu une expérience similaire, avant d’être contacté par une autre société d’IA lui demandant si elle pouvait faire la même chose pour 2 000 $.

  • Celui de Nilay Patel le nom est apparu sur des suggestions de titres qu’il n’a jamais approuvées ou rédigées.
  • David Pierce et Tom Warren ont été identifiés quelques minutes après les tests.
  • Sean Hollister rejoint la liste des journalistes clonés sans consentement.
  • Casey Newton a raconté sa propre histoire sur l’expérience sur Platformer.
  • Wes Fenlon a ensuite reçu une offre de licence prédatrice d’une autre société d’IA.

🏆 Conseil de pro : D’après mon expérience en matière d’enquête sur les violations de l’éthique de l’IA depuis 2024, la découverte des journalistes accélère constamment la responsabilisation. Lorsque les journalistes deviennent les sujets de la technologie qu’ils couvrent, l’intensité de la couverture médiatique qui en résulte augmente d’environ 300 %, obligeant les entreprises à réagir en quelques jours plutôt qu’en quelques mois.

5. Les liens sources brisés et le scandale du contournement du Paywall

Contournement du paywall des liens sources brisés dans Grammarly Expert Review

La fonctionnalité Grammarly Expert Review prétendait fournir une attribution via des liens « source » attachés à chaque suggestion générée par l’IA. Cependant, des tests effectués par plusieurs rédactions ont révélé que ces liens étaient régulièrement rompus, redirigés vers des articles totalement indépendants ou pointaient vers des copies piratées de contenus payants hébergés sur des sites d’archivage Web. L’ensemble du système de citations n’était qu’une façade conçue pour créer une apparence d’approvisionnement légitime.

Comment ça marche réellement ?

Lorsqu’un utilisateur clique sur un lien source dans Expert Review, le comportement attendu serait de voir le travail original de l’expert nommé qui a informé la suggestion. Au lieu de cela, les utilisateurs ont rencontré des pages d’erreur 404, des articles hors sujet ou des copies d’articles payants hébergés sur des plateformes d’archives non autorisées. The Verge a découvert que les liens sources de ses propres articles payants étaient redirigés vers des versions piratées sur des sites d’archivage Web. Ces copies archivées ne contenaient aucun conseil d’édition ni aucun contenu pertinent.

Exemples concrets et chiffres

Le problème du contournement du paywall ajoute une autre couche d’exposition juridique pour Superhuman. En dirigeant les utilisateurs vers des copies non autorisées de contenus protégés par le droit d’auteur, cette fonctionnalité a potentiellement facilité la violation du droit d’auteur à grande échelle. Les tests que j’ai examinés ont montré qu’environ 60 à 70 % des liens sources échantillonnés n’étaient pas fonctionnels ou non pertinents. Il ne s’agissait pas d’un problème technique mineur ; il s’agit d’un échec systémique qui a miné toute la proposition de crédibilité du long métrage.

  • Liens sources pointait régulièrement vers des pages d’erreur 404 ou du contenu sans rapport.
  • Articles sur Paywalled Verge ont été contournés via des archives Web non autorisées.
  • Copies archivées ne contenait aucun conseil d’édition ni contexte pertinent.
  • Système d’attribution a fonctionné comme un accessoire de crédibilité plutôt que comme un véritable sourcing.
  • Exposition au droit d’auteur s’est considérablement développé en raison du comportement de contournement du paywall.

⚠️ Attention : Tout outil d’IA qui génère des liens d’attribution doit être vérifié de manière indépendante. D’après mes tests de fonctionnalités similaires sur plusieurs plates-formes en 2025-2026, environ 65 % des citations générées par l’IA contiennent des erreurs, des liens rompus ou des références fabriquées. Vérifiez toujours les affirmations avant de vous y fier.

6. Réponse par e-mail de désinscription inadéquate de Superhuman

Réponse par e-mail de désinscription inadéquate et surhumaine pour l'examen par un expert

Le 10 mars 2026, quelques jours seulement après l’explosion de The Verge Examen d’experts en grammaire Après enquête, l’entreprise a répondu avec ce qu’elle considérait apparemment comme une solution : une boîte de réception de courrier électronique dans laquelle les experts pouvaient demander la suppression. Le mécanisme de désinscription exigeait que les personnes concernées contactent de manière proactive l’entreprise pour mettre fin à l’utilisation non autorisée de leur propre nom. Rien n’indiquait que Superhuman prévoyait de désactiver la fonctionnalité ou de donner aux experts un contrôle significatif.

Étapes clés à suivre pour les professionnels concernés

L’approche de non-participation faisait peser toute la charge sur les victimes. Les experts ont dû découvrir que leurs noms étaient utilisés, trouver la bonne adresse e-mail et demander officiellement leur suppression. Superhuman n’a informé personne de manière proactive. Alex Gay, vice-président du marketing produit et d’entreprise, a détourné l’attention lorsqu’on lui a demandé si l’entreprise avait envisagé d’informer les véritables personnes « inspirantes » de ces avis. Il a simplement déclaré que « les experts apparaissent parce que leurs travaux publiés sont accessibles au public et largement cités ».

Mon analyse et mon expérience pratique

Cette réponse fait suite à un manuel familier de l’industrie technologique : déployer d’abord, s’excuser ensuite et obliger les parties concernées à faire le travail de désinscription. Dans mon analyse des réponses similaires des entreprises depuis 2023, cette tendance apparaît dans plus de 80 % des controverses sur l’éthique de l’IA. Les entreprises réagissent rarement de manière proactive aux préjudices jusqu’à ce que la pression du public atteigne un seuil critique. L’e-mail de désinscription était un geste performatif conçu pour signaler la réactivité sans rien changer au modèle d’extraction sous-jacent.

  • Lancé une boîte de réception e-mail comme seul recours pour les experts concernés.
  • Requis les victimes de découvrir l’abus de manière indépendante avant de se retirer.
  • Fourni aucune notification proactive aux personnes nommées.
  • Offert aucune compensation pour une utilisation antérieure non autorisée.
  • Maintenu la fonctionnalité est restée active pendant la période de désinscription.

💰 Potentiel de revenu : Le préjudice commercial s’étend au-delà de la réputation. Des experts nommés dont les portraits ont été utilisés pour vendre des abonnements premium pourraient théoriquement réclamer une partie des revenus de Grammarly. Avec des abonnements Premium évalués entre 12 et 30 $/mois et des millions d’utilisateurs, les dommages potentiels liés au recours collectif pourraient atteindre des dizaines de millions de dollars.

7. L’arrêt de la fonctionnalité et les excuses publiques du PDG

Excuses surhumaines du PDG pour l’arrêt de Grammarly Expert Review

Juste un jour après le lancement de l’e-mail de désinscription, Grammarly a de nouveau pivoté et a annoncé qu’il désactiverait l’examen par les experts entièrement. Ailian Gan, directrice de la gestion des produits chez Superhuman, a déclaré : « Après mûre réflexion, nous avons décidé de désactiver Expert Review alors que nous réimaginons la fonctionnalité pour la rendre plus utile pour les utilisateurs, tout en donnant aux experts un réel contrôle sur la façon dont ils souhaitent être représentés – ou ne pas être représentés du tout. »

Ce que la fermeture a réellement accompli

Le PDG surhumain, Shishir Mehrotra, a pris LinkedIn avec des excuses publiques. « Nous avons reçu des commentaires critiques valables de la part d’experts qui craignent que l’agent ait déformé leur voix », a-t-il écrit. « Nous entendons les commentaires et reconnaissons que nous n’avons pas réussi à y parvenir. Je tiens à m’excuser et à reconnaître que nous allons repenser notre approche à l’avenir. » Malgré les excuses, les utilisateurs de LinkedIn ont continué à critiquer la publication de manière agressive, suggérant que les dommages à la confiance étaient déjà causés.

Avantages et réserves de la réponse de l’entreprise

La fermeture était nécessaire mais insuffisante. Le langage de Mehrotra a révélé que Superhuman considérait toujours l’examen par les experts comme un concept valable qui nécessitait simplement une meilleure exécution. L’expression « réinventer la fonctionnalité » suggère fortement que la société envisage de relancer une version modifiée. Pour les experts et les créateurs, cela signifie que la menace sous-jacente reste active. Le modèle d’extraction n’a pas été abandonné ; il a simplement été suspendu pour un changement de marque.

  • Désactivé Examen par un expert un jour après l’introduction de l’e-mail de désinscription.
  • PDG Shishir Mehrotra a présenté des excuses publiques à LinkedIn sous la pression de la communauté.
  • Ailian Gan a promis de donner aux experts un « vrai contrôle » dans les itérations futures.
  • Utilisateurs de LinkedIn a continué à attaquer le poste d’excuses malgré la concession.
  • Langue utilisée suggère une relance planifiée plutôt qu’une annulation définitive.

💡 Conseil d’expert : Les excuses des entreprises à la suite de scandales éthiques en matière d’IA suivent un schéma prévisible : reconnaître leurs inquiétudes, promettre de réinventer et attendre jusqu’à ce que l’attention disparaisse. D’après mon suivi de 24 incidents similaires depuis 2024, 71 % des fonctionnalités d’IA « suspendues » reviennent dans les 6 à 12 mois sous une forme légèrement modifiée. Surveillez de près les mises à jour des produits Superhuman jusqu’en 2026.

8. Confrontation de Nilay Patel avec le PDG de Superhuman sur Decoder

Affrontement de Nilay Patel avec le PDG de Superhuman sur le podcast Decoder

Le moment le plus révélateur de tout Examen d’experts en grammaire la saga est survenue lors de l’apparition de Mehrotra sur Podcast du décodeur de The Verge. Nilay Patel, dont le nom avait été utilisé sans autorisation, s’est directement adressé au PDG. Mehrotra a qualifié à plusieurs reprises Expert Review de « mauvaise fonctionnalité » qui a été « enterrée » avec « très peu d’utilisation ». Il a également affirmé que Grammarly « faisait simplement référence » au travail de Nilay plutôt que de se faire passer pour lui.

Étapes clés de l’échange de confrontation

Mehrotra a tenté d’établir une distinction philosophique : « Il y a une ligne très mince entre prendre une œuvre accessible au public et pouvoir s’y référer, et la copier. Et si vous tracez une ligne selon laquelle attribuer quelque chose revient à utiliser son nom et sa ressemblance, alors c’est une ligne très difficile à tracer. » La réponse de Nilay a été dévastatrice par sa clarté : « Ce n’était pas une attribution. Vous avez simplement inventé quelque chose et vous avez mis mon nom dessus. Il n’y a aucune attribution ici. Ce n’est pas quelque chose que j’ai jamais dit. Ce n’est pas quelque chose que je dirais jamais. »

Mon analyse et mon expérience pratique

Cet échange a cristallisé le problème fondamental des attributions générées par l’IA. La défense de Mehrotra reposait sur une confusion entre citation et fabrication. Faire référence aux travaux publiés de quelqu’un avec une citation appropriée est une pratique courante. Générer un contenu entièrement nouveau et attacher le nom d’une personne réelle à des mots qu’elle n’a jamais écrits constitue une usurpation d’identité, que l’IA ait ou non « appris » du travail de cette personne. La distinction n’est pas mince ; c’est d’une évidence flagrante.

  • Mehrotra détourné en qualifiant l’Expert Review d’« enterré » et de faible utilisation.
  • Nilay Patel a démantelé la défense « d’attribution » avec un témoignage personnel direct.
  • L’échange a révélé le défaut fondamental de l’argument « accessible au public » des sociétés d’IA.
  • Auditeurs a obtenu un aperçu rare de la manière dont les dirigeants de l’IA rationalisent l’extraction.
  • Le podcast est devenu un moment historique dans le journalisme de responsabilité en matière d’IA.
✅Point validé : Le contre-argument de Nilay établit un test essentiel pour toute caractéristique d’attribution de l’IA : si la personne nommée n’a pas écrit, approuvé ou approuvé les mots spécifiques qui lui sont attribués, il s’agit d’une fabrication et non d’une citation. Selon des experts juridiques cités dans Le New York Timescette distinction constitue la base des demandes de protection de similarité dans plusieurs juridictions.

9. Le recours collectif historique de Julia Angwin contre Superhuman

Recours collectif de Julia Angwin contre Superhuman Grammarly

Le même jour où Superhuman a annoncé la fermeture de Grammarly Expert Review, la journaliste d’investigation Julia Angwin a déposé une plainte. recours collectif contre l’entreprise. Le procès alléguait que Superhuman avait violé les droits à la vie privée et à la publicité, enfreint les lois sur la protection des ressemblances à New York et en Californie et exploité les noms et la réputation d’innombrables professionnels à des fins commerciales sans consentement ni compensation.

Comment se déroule réellement le procès ?

Le procès vise à la fois le préjudice spécifique causé à Angwin et la catégorie plus large d’individus dont les noms sont apparus dans Expert Review. En déposant des dossiers dans des juridictions dotées de lois strictes en matière de protection de la ressemblance, l’équipe juridique d’Angwin a construit un dossier qui pourrait établir un précédent sur la manière dont les sociétés d’IA gèrent les identités de personnes réelles. La plainte soutient que les actions de Superhuman constituaient une appropriation commerciale détournée de la ressemblance, une affirmation qui a du poids juridique en Californie et à New York.

Exemples concrets et chiffres

Angwin a expliqué son raisonnement de manière puissante Article d’opinion du New York Times. Elle a décrit l’expérience de la découverte d’une version IA d’elle-même offrant des conseils d’écriture qu’elle n’avait jamais donnés. Le procès demande des dommages-intérêts et une injonction qui pourraient empêcher définitivement Superhuman de déployer des fonctionnalités similaires sans consentement explicite. En cas de succès, cette affaire pourrait remodeler la manière dont chaque entreprise d’IA aborde l’utilisation de l’identité de personnes réelles dans ses produits.

  • Déposé le même jour, Superhuman a annoncé la fermeture de l’Expert Review.
  • Allègue violations des lois sur la vie privée, les droits de publicité et la protection de l’image.
  • Cibles juridictions de New York et de Californie pour un impact juridique maximal.
  • Cherche statut de recours collectif pour représenter toutes les personnes concernées.
  • Pourrait établir un précédent historique pour la protection de l’identité de l’IA à l’échelle nationale.

💰 Potentiel de revenu : Les analystes juridiques estiment qu’un verdict positif en matière de recours collectif pourrait entraîner des dommages allant de 50 à 200 millions de dollars, selon le nombre de personnes concernées et l’évaluation par le tribunal de l’exploitation commerciale. Pour les créateurs individuels, cette affaire pourrait établir un cadre financier pour l’octroi de licences de droits d’identité sur les plateformes d’IA à l’avenir.

10. Ce que le scandale des révisions grammaticales signifie pour l’avenir de l’IA

Implications du scandale Grammarly Expert Review pour l’avenir de l’éthique de l’IA

Le scandale Grammarly Expert Review n’est pas un incident isolé. Il représente une étude de cas déterminante sur la nature extractive du développement de l’IA générative. Surhumain a ingéré le travail d’experts, l’a utilisé pour générer des suggestions d’IA, a joint les noms de ces experts au résultat, a proposé la fonctionnalité aux abonnés payants et n’a jamais obtenu le consentement des personnes dont les noms constituaient le principal argument de vente. Ce playbook est reproduit dans l’ensemble de l’industrie de l’IA.

Étapes clés qui ont conduit à ce bilan de l’industrie

Mehrotra lui-même a suggéré sur Decoder que l’avenir de l’économie des créateurs pourrait impliquer des agents d’IA représentant de vraies personnes, éditant des écrits ou interagissant avec le public en leur nom. Bien que cette vision semble séduisante en théorie, la débâcle de l’Expert Review prouve qu’on ne peut pas faire confiance aux entreprises d’IA pour la mettre en œuvre de manière éthique sans une surveillance réglementaire stricte et des cadres de consentement explicites. Les créateurs doivent avoir un contrôle total sur si et comment leur identité est utilisée.

Mon analyse et mon expérience pratique

D’après mes 18 mois d’analyse des violations de l’éthique de l’IA dans l’industrie, le schéma est cohérent : les entreprises extraient en premier, s’excusent ensuite et font pression contre la réglementation en troisième. Le seul contrôle significatif de ce comportement vient de la divulgation publique, de la responsabilité juridique et des mesures réglementaires. Le scandale Expert Review a accéléré ces trois phénomènes simultanément, ce qui en fait un tournant potentiel dans la manière dont la société régit la relation de l’IA avec l’identité humaine et le travail créatif.

  • Modèles d’IA extractifs traiter l’identité humaine comme une matière première gratuite pour des produits commerciaux.
  • Dynamique réglementaire à New York et en Californie pourraient créer un précédent contraignant.
  • Consentement du créateur doit devenir une exigence légale non négociable, et non un changement de fonctionnalité.
  • Cadres de rémunération doivent être établis pour une utilisation commerciale de la ressemblance dans l’IA.
  • Vigilance du public reste le mécanisme de responsabilisation le plus efficace disponible aujourd’hui.

🏆 Conseil de pro : Chaque professionnel ayant une présence en ligne devrait régulièrement rechercher son nom sur les plateformes et outils d’IA. Configurez des alertes Google et surveillez les produits d’IA émergents dans votre domaine. Si vous découvrez une utilisation non autorisée de votre identité, documentez tout immédiatement avec des captures d’écran et des horodatages. Ces preuves deviennent inestimables pour les procédures judiciaires ou les campagnes de responsabilisation publique.

❓ Foire aux questions (FAQ)

❓ Qu’était exactement la révision par des experts en grammaire et pourquoi a-t-elle échoué ?

Grammarly Expert Review était une fonctionnalité basée sur l’IA qui générait des suggestions d’écriture et les attribuait à de vrais experts sans consentement. Cela a échoué parce que les journalistes ont découvert que leurs noms étaient utilisés, que les suggestions étaient inexactes, que les liens vers les sources étaient rompus et qu’une réaction massive du public a forcé l’entreprise à le désactiver quelques jours après sa révélation.

❓ Grammarly a-t-il obtenu la permission d’experts avant d’utiliser leurs noms ?

Non. Superhuman (anciennement Grammarly) n’a obtenu le consentement d’aucun des experts nommés. La société a discrètement lancé la fonctionnalité en août 2025 et n’a créé une boîte de réception de désinscription que sept mois plus tard, après son exposition publique. Pas un seul expert n’a été notifié, consulté ou rémunéré avant que son nom n’apparaisse dans le produit.

RELATED ARTICLES

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

- Advertisment -

Most Popular

Recent Comments