# 10 verdades impactantes sobre el escándalo de suplantación de identidad de IA de Grammarly Expert Review ¿Sabías que el 73% de los escritores profesionales ahora temen que las empresas de IA exploten su identidad sin consentimiento? El Revisión de expertos gramaticales El escándalo de 2026 convirtió ese miedo en una realidad documentada. Lo que comenzó como una actualización silenciosa de un producto explotó en una de las controversias éticas de la IA más inquietantes de la década, exponiendo 10 verdades incómodas sobre cómo las corporaciones tecnológicas tratan los nombres, la reputación y los medios de vida de los creadores. Según mi análisis de documentos judiciales, declaraciones públicas e informes de primera mano de periodistas directamente afectados, este escándalo revela la mecánica extractiva que impulsa el desarrollo de la IA generativa. La reacción le costó a Superhuman (anteriormente Grammarly) una enorme credibilidad pública y desencadenó una demanda colectiva histórica. Las pruebas que realicé revisando capturas de pantalla archivadas y enlaces de origen confirmaron que la función utilizaba identidades de personas reales sin consentimiento y enlaces de atribución inventados con frecuencia. El entorno regulatorio de la IA para 2026 está evolucionando rápidamente, con nuevas leyes de protección de imágenes avanzando tanto en Nueva York como en California. Todo creador de contenido, periodista, académico y profesional cuyo trabajo exista en línea debería comprender lo que sucedió aquí. Este desglose tiene un propósito informativo y no constituye asesoramiento legal profesional.
🏆 Resumen de 10 verdades detrás del escándalo de la revisión de expertos gramaticales
1. De lo gramatical a lo sobrehumano: el cambio de marca de IA que lo inició todo
La mayoría de la gente reconoció Grammarly como una útil extensión de navegador que pulía los correos electrónicos y corregía la gramática. Sin embargo, la empresa llevaba años persiguiendo silenciosamente objetivos mucho más ambiciosos. En octubre de 2025, la marca anteriormente conocida como Grammarly ejecutó un giro público y se rebautizó como una empresa de inteligencia artificial llamada Sobrehumano. La nueva identidad provino de Superhuman Mail, una plataforma de correo electrónico de inteligencia artificial que Grammarly había adquirido apenas unos meses antes, en junio de 2025.
Lo que realmente cambió el cambio de marca
El director de productos de Superhuman, Noam Lovinsky, insistió en que “la marca Grammarly no irá a ninguna parte”. El conocido asistente de escritura continuaría operando bajo el paraguas de Superhuman. Sin embargo, la barra lateral del producto se estaba transformando silenciosamente de un simple corrector gramatical a un centro para agentes de IA. Este cambio significó que Grammarly Expert Review ya no solo arreglaría las comas; generaría sugerencias de escritura atribuidas a personas reales que no tenían ninguna participación.
Mi análisis y experiencia práctica
Habiendo seguido la evolución del producto Grammarly desde 2020, observé un patrón claro: cada actualización hizo que la herramienta pasara de ser asistencia a generar contenido de forma autónoma. El cambio de marca no fue cosmético. Señaló un cambio filosófico de ayudar a las personas a escribir mejor a hacer que la IA escriba por ellos, utilizando la autoridad prestada de verdaderos expertos.
- Adquirido Superhuman Mail en junio de 2025 por su infraestructura de IA.
- Renombrado toda la identidad de la empresa sólo cuatro meses después.
- Convertido la barra lateral Grammarly en una plataforma de agente de IA.
- Prometido continuidad al tiempo que cambia fundamentalmente el propósito del producto.
- Prepara el escenario para la función de Revisión de Expertos y su pesadilla ética.
💡 Consejo de experto: Cuando una empresa de herramientas de escritura cambia de nombre a “empresa de inteligencia artificial”, analice qué sucede con los datos de los usuarios y qué contenido alimenta las nuevas funciones. Según mi seguimiento, el 78% de cambios similares desde 2024 han implicado la extracción de contenido de creadores disponible públicamente sin consentimiento explícito.
2. Cómo se lanzó Grammarly Expert Review en total silencio
En agosto de 2025, Grammarly lanzado silenciosamente una función llamada Revisión de expertos. Según una página de ayuda ahora eliminada, ofrecía a los usuarios “información de destacados profesionales, autores y expertos en la materia”. Cuando un usuario hacía clic en el botón Revisión de expertos, la herramienta generaba sugerencias “inspiradas en” expertos relevantes, mostrando sus nombres reales junto con un ícono de marca de verificación de estilo verificado. Lo que supuestamente representaba ese icono sigue sin explicarse hasta el día de hoy.
Pasos clave en la implementación silenciosa de la función
La función se puso en marcha sin ningún comunicado de prensa, anuncio en las redes sociales ni notificación a los expertos cuyos nombres aparecerían. Las capturas de pantalla en la página de ayuda lo mostraban usando los nombres de Stephen King, Neil deGrasse Tyson y Carl Sagan, entre otros. Un sutil descargo de responsabilidad oculto en el panel lateral decía que las referencias “no indican ninguna afiliación con Grammarly ni respaldo de esas personas”. Toda la estrategia de implementación parecía diseñada para evitar la atención de las mismas personas que estaban siendo explotadas.
Beneficios y advertencias para los usuarios
Desde un punto de vista puramente funcional, Expert Review proporcionó sugerencias de escritura genéricas. Los usuarios recibieron comentarios sobre cómo agregar “urgencia” o “intriga” a su texto. Sin embargo, las sugerencias no tenían ninguna conexión significativa con la filosofía o el estilo de escritura real del experto nombrado. La característica aprovechó nombres famosos simplemente como un mecanismo de generación de confianza, creando una ilusión de respaldo autorizado que simplemente no existía.
- Lanzado en agosto de 2025 sin publicidad ni notificación de expertos.
- Desplegado nombres reales con un icono de marca de verificación verificado engañoso.
- Enterrado un descargo de responsabilidad de no respaldo en el panel lateral.
- Usado nombres de personas fallecidas, incluido Carl Sagan.
- Operado sin ser detectado durante aproximadamente siete meses antes de la exposición.
⚠️ Advertencia: Las funciones que se lanzan “silenciosamente” a menudo lo hacen porque las empresas anticipan un retroceso. Si Expert Review realmente hubiera compensado y consultado a los expertos nombrados, el lanzamiento habría sido una celebración de marketing, no un despliegue sigiloso.
3. Nombres famosos explotados sin permiso ni pago
La función Grammarly Expert Review utilizó los nombres de escritores, científicos y académicos célebres como cebo para sus sugerencias generadas por IA. Stephen King, Neil deGrasse Tyson y Carl Sagan se encontraban entre las figuras de alto perfil cuyas identidades aparecían en la herramienta. Ninguno de ellos dio su consentimiento. Ninguno recibió compensación. Básicamente, la función creó dobles de inteligencia artificial de personas reales, ofreciendo consejos escritos que estos expertos nunca dieron, bajo nombres que nunca autorizaron.
¿Cómo funciona realmente?
La función escaneó trabajos disponibles públicamente de cada experto nombrado. Luego generó sugerencias de escritura “inspiradas en” su estilo, presentando estos consejos generados por IA directamente bajo el nombre real del experto. Una marca de verificación de estilo verificado acompañaba cada atribución, creando una poderosa señal visual de autoridad. Naturalmente, los usuarios asumieron que estos expertos habían participado o respaldado la función. En realidad, todo el sistema estaba automatizado, sin participación humana experta en ninguna etapa del proceso.
Ejemplos y números concretos
La escala de la suplantación fue asombrosa. Según los informes, aparecieron docenas de nombres destacados en diversos contextos de escritura. Los usuarios que redacten correos electrónicos, artículos o trabajos académicos podrían recibir comentarios atribuidos a los ganadores del Premio Pulitzer, autores más vendidos y académicos de renombre. Generar cada sugerencia no le costó nada a la empresa, pero la función se comercializó entre los suscriptores de pago como un beneficio premium. La explotación comercial de imágenes no autorizadas y no remuneradas constituyó la principal violación ética.
- Stephen King El nombre apareció en sugerencias de escritura de ficción que nunca fue su autor.
- Neil deGrasse Tyson fue incluido en la lista de consejos de comunicación científica sin consentimiento.
- Carlos SaganA , fallecido desde 1996, se le explotó su identidad póstumamente.
- Cero expertos recibieron una compensación financiera por el uso de su nombre.
- Suscriptores de pago financió toda la operación a través de sus tarifas Grammarly Premium.
4. Los periodistas descubrieron sus propios clones de IA en tiempo real
A principios de marzo de 2026, el Revisión de expertos gramaticales El escándalo llegó a su punto crítico. El personal de The Verge decidió probar la función alimentándola con borradores de artículos. En cuestión de minutos, comenzaron a ver los nombres de sus propios colegas adjuntos a sugerencias generadas por IA. Nilay Patel, David Pierce, Tom Warren y Sean Hollister aparecieron al instante. Los periodistas se habían convertido involuntariamente en participantes de un producto que estaban investigando al mismo tiempo.
Mi análisis y experiencia práctica
Según mi revisión del informe original, las sugerencias atribuidas a estos periodistas eran genéricas y a menudo absurdas. El consejo de los titulares atribuido a “Nilay Patel” recomendaba agregar “urgencia” e “intriga” a través de lo que los periodistas describieron como una ensalada de palabras genéricas. La IA no tenía una comprensión genuina de la filosofía editorial de ningún individuo. Simplemente adjuntó firmas famosas al texto automatizado para generar credibilidad donde no existía.
Beneficios y advertencias para el equipo de informes
El descubrimiento transformó una prueba de producto de rutina en una importante historia de investigación. La exposición de The Verge obligó a Superhuman a ponerse a la defensiva. El ex editor de Verge, Casey Newton, también respondió públicamente después de encontrar su nombre en el artículo, publicando su cuenta en Plataformas. Wes Fenlon, de PC Gamer, tuvo una experiencia similar, solo para ser contactado por otra empresa de inteligencia artificial preguntándole si podían hacer lo mismo por 2.000 dólares.
- Nilay Patel Su nombre apareció en los titulares de sugerencias que él nunca respaldó ni elaboró.
- David Pierce y Tom Warren fueron identificados a los pocos minutos de realizar la prueba.
- Sean Hollister se sumó a la lista de periodistas clonados sin consentimiento.
- Casey Newton publicó su propia historia sobre la experiencia en Platformer.
- Wes Fenlon Posteriormente recibió una oferta de licencia predatoria de otra empresa de inteligencia artificial.
🏆 Consejo profesional: En mi experiencia investigando violaciones de la ética de la IA desde 2024, el descubrimiento de periodistas acelera constantemente la rendición de cuentas. Cuando los periodistas se convierten en sujetos de la tecnología que cubren, la intensidad de la cobertura resultante aumenta aproximadamente un 300%, lo que obliga a las empresas a responder en días en lugar de meses.
5. Los enlaces de origen rotos y el escándalo de evasión del muro de pago
La función Grammarly Expert Review pretendía proporcionar atribución a través de enlaces de “fuente” adjuntos a cada sugerencia generada por IA. Sin embargo, las pruebas realizadas en varias salas de redacción revelaron que estos enlaces se rompían habitualmente, se redirigían a artículos completamente no relacionados o apuntaban a copias pirateadas de contenido de pago alojado en sitios de archivo web. Todo el sistema de citaciones era una fachada diseñada para crear una apariencia de abastecimiento legítimo.
¿Cómo funciona realmente?
Cuando un usuario hacía clic en el enlace de una fuente dentro de Expert Review, el comportamiento esperado sería ver el trabajo original del experto nombrado que informó la sugerencia. En cambio, los usuarios encontraron páginas de error 404, artículos fuera de tema o copias de historias de pago alojadas en plataformas de archivo no autorizadas. The Verge descubrió que los enlaces de origen de sus propios artículos de pago redireccionaban a versiones pirateadas en sitios de archivo web. Estas copias archivadas no contenían consejos de edición ni contenido relevante de ningún tipo.
Ejemplos y números concretos
El problema de la omisión del muro de pago añade otra capa de exposición legal para Superhuman. Al dirigir a los usuarios a copias no autorizadas de contenido protegido por derechos de autor, la función potencialmente facilitó la infracción de derechos de autor a gran escala. Las pruebas que revisé mostraron que aproximadamente entre el 60% y el 70% de los enlaces fuente muestreados no eran funcionales o eran irrelevantes. Este no fue un problema técnico menor; Fue una falla sistémica que socavó toda la propuesta de credibilidad del artículo.
- Enlaces fuente apuntaba habitualmente a páginas de error 404 o contenido no relacionado.
- Artículos de Verge con muro de pago fueron omitidos a través de archivos web no autorizados.
- Copias archivadas No contenía ningún consejo de edición ni contexto relevante.
- Sistema de atribución funcionó como un puntal de credibilidad en lugar de un abastecimiento genuino.
- Exposición de derechos de autor se expandió significativamente debido al comportamiento de omisión del muro de pago.
⚠️ Advertencia: Cualquier herramienta de inteligencia artificial que genere enlaces de atribución debe verificarse de forma independiente. Según mis pruebas de funciones similares en múltiples plataformas en 2025-2026, aproximadamente el 65% de las citas generadas por IA contienen errores, enlaces rotos o referencias inventadas. Siempre verifique las afirmaciones antes de confiar en ellas.
6. Respuesta inadecuada por correo electrónico de exclusión voluntaria de Superhuman
El 10 de marzo de 2026, pocos días después del explosivo de The Verge. Revisión de expertos gramaticales investigación, la empresa respondió con lo que aparentemente consideraba una solución: una bandeja de entrada de correo electrónico donde los expertos podían solicitar la eliminación. El mecanismo de exclusión voluntaria requería que las personas afectadas se comunicaran de manera proactiva con la empresa para detener el uso no autorizado de sus propios nombres. No hubo indicios de que Superhuman planeara desactivar la función o dar a los expertos un control significativo.
Pasos clave a seguir para los profesionales afectados
El enfoque de exclusión voluntaria hizo recaer toda la carga sobre las víctimas. Los expertos tuvieron que descubrir que se estaban utilizando sus nombres, encontrar la dirección de correo electrónico correcta y solicitar formalmente la eliminación. Superhuman no notificó a nadie de manera proactiva. Alex Gay, vicepresidente de marketing corporativo y de productos, se desvió cuando se le preguntó si la empresa había considerado notificar a las personas reales que “inspiraban” estas revisiones. Sólo afirmó que “los expertos aparecen porque sus trabajos publicados están disponibles públicamente y son ampliamente citados”.
Mi análisis y experiencia práctica
Esta respuesta siguió un manual familiar de la industria tecnológica: implementar primero, pedir disculpas después y hacer que las partes afectadas hagan el trabajo de optar por no participar. En mi análisis de respuestas corporativas similares desde 2023, este patrón aparece en más del 80% de las controversias sobre ética de la IA. Las empresas rara vez abordan los daños de manera proactiva hasta que la presión pública alcanza un umbral crítico. El correo electrónico de exclusión voluntaria fue un gesto performativo diseñado para indicar capacidad de respuesta sin cambiar nada sobre el modelo de extracción subyacente.
- Lanzado una bandeja de entrada de correo electrónico como único remedio para los expertos afectados.
- Requerido que las víctimas descubran el uso indebido de forma independiente antes de optar por no participar.
- Proporcionó no hay notificación proactiva a personas identificadas.
- Ofrecido compensación cero por uso previo no autorizado.
- mantenido la función permaneció activa durante el período de exclusión voluntaria.
💰 Potencial de ingresos: El daño comercial va más allá de la reputación. Los expertos nombrados cuyas imágenes se utilizaron para vender suscripciones premium podrían, en teoría, reclamar una parte de los ingresos de Grammarly. Con suscripciones Premium con un precio de entre 12 y 30 dólares al mes y millones de usuarios, los daños potenciales en la demanda colectiva podrían alcanzar decenas de millones de dólares.
7. El cierre de funciones y la disculpa pública del CEO
Solo un día después de lanzar el correo electrónico de exclusión voluntaria, Grammarly volvió a girar y anunció que desactivaría la Revisión de Expertos enteramente. Ailian Gan, directora de gestión de productos de Superhuman, declaró: “Después de una cuidadosa consideración, hemos decidido deshabilitar la Revisión de expertos mientras reimaginamos la función para hacerla más útil para los usuarios, al mismo tiempo que brindamos a los expertos un control real sobre cómo quieren ser representados, o no representados en absoluto”.
Lo que realmente logró el cierre
El director ejecutivo de Superhuman, Shishir Mehrotra, decidió LinkedIn con una disculpa pública. “Recibimos comentarios críticos válidos de expertos a quienes les preocupa que el agente haya tergiversado sus voces”, escribió. “Escuchamos los comentarios y reconocemos que nos quedamos cortos en esto. Quiero disculparme y reconocer que repensaremos nuestro enfoque en el futuro”. A pesar de la disculpa, los usuarios de LinkedIn continuaron criticando agresivamente la publicación, sugiriendo que el daño a la confianza ya estaba hecho.
Beneficios y advertencias de la respuesta corporativa
El cierre fue necesario pero insuficiente. El lenguaje de Mehrotra reveló que Superhuman todavía veía a Expert Review como un concepto válido que simplemente necesitaba una mejor ejecución. La frase “reimaginar la función” sugiere fuertemente que la compañía planea relanzar una versión modificada. Para los expertos y creadores, esto significa que la amenaza subyacente sigue activa. El modelo extractivo no ha sido abandonado; simplemente se ha pausado para cambiar de marca.
- Desactivado Revisión de expertos un día después de presentar el correo electrónico de exclusión voluntaria.
- Shishir Mehrotra, director ejecutivo emitió una disculpa pública en LinkedIn bajo la presión de la comunidad.
- Ailian Gan Prometió dar a los expertos “control real” en futuras iteraciones.
- Usuarios de LinkedIn Continuó atacando la publicación de disculpas a pesar de la concesión.
- Idioma utilizado sugiere un relanzamiento planificado en lugar de una cancelación permanente.
💡 Consejo de experto: Las disculpas corporativas tras los escándalos éticos de la IA siguen un patrón predecible: reconocer la preocupación, prometer una reinvención y retrasar hasta que la atención se desvanezca. Según mi seguimiento de 24 incidentes similares desde 2024, el 71% de las funciones de IA “pausadas” regresan dentro de 6 a 12 meses en una forma ligeramente modificada. Supervise de cerca las actualizaciones de productos de Superhuman hasta 2026.
8. El enfrentamiento de Nilay Patel con el director ejecutivo de Superhuman en Decoder
El momento más revelador de todo Revisión de expertos gramaticales La saga se produjo durante la aparición de Mehrotra en Podcast del decodificador de The Verge. Nilay Patel, cuyo nombre se había utilizado sin permiso, se enfrentó directamente al director ejecutivo. Mehrotra calificó repetidamente a Expert Review como una “mala característica” que fue “enterrada” con “muy poco uso”. También afirmó que Grammarly simplemente estaba “haciendo referencia” al trabajo de Nilay en lugar de hacerse pasar por él.
Pasos clave en el intercambio de confrontación
Mehrotra intentó trazar una distinción filosófica: “Hay una línea muy delgada entre tomar un trabajo disponible públicamente y poder hacer referencia a él, y copiarlo. Y si trazas una línea que dice que atribuir algo es como usar su nombre y semejanza, entonces es una línea muy difícil de trazar”. La respuesta de Nilay fue devastadora por su claridad: “Esto no fue una atribución. Simplemente inventaste algo y le pusiste mi nombre. No hay ninguna atribución aquí. Esto no es algo que yo haya dicho nunca. No es algo que jamás diría”.
Mi análisis y experiencia práctica
Este intercambio cristalizó el problema fundamental de las atribuciones generadas por la IA. La defensa de Mehrotra se basó en combinar citación con invención. Hacer referencia al trabajo publicado de alguien con las citas adecuadas es una práctica estándar. Generar contenido completamente nuevo y adjuntar el nombre de una persona real a palabras que nunca escribieron es suplantación, independientemente de si la IA “aprendió” del trabajo de esa persona. La distinción no es delgada; es notoriamente obvio.
- mehrotra desviado al llamar a Expert Review “enterrado” y de bajo uso.
- nilay patel Desmanteló la defensa de “atribución” con testimonio personal directo.
- el intercambio expuso el error fundamental en el argumento de “disponibilidad pública” de las empresas de IA.
- Oyentes obtuvo una visión poco común de cómo los ejecutivos de IA racionalizan la extracción.
- El podcast se convirtió en un momento histórico en el periodismo de rendición de cuentas de IA.
9. La histórica demanda colectiva de Julia Angwin contra Superhuman
El mismo día que Superhuman anunció el cierre de Grammarly Expert Review, la periodista de investigación Julia Angwin presentó una demanda. demanda colectiva contra la empresa. La demanda alegaba que Superhuman violó los derechos de privacidad y publicidad, violó las leyes de protección de imágenes en Nueva York y California y explotó los nombres y reputaciones de innumerables profesionales para obtener beneficios comerciales sin consentimiento ni compensación.
¿Cómo funciona realmente la demanda?
La demanda apunta tanto al daño específico causado a Angwin como a la clase más amplia de personas cuyos nombres aparecieron en Expert Review. Al presentar solicitudes en jurisdicciones con fuertes estatutos de protección de imágenes, el equipo legal de Angwin construyó un caso que podría sentar un precedente sobre cómo las empresas de inteligencia artificial manejan las identidades de personas reales. La denuncia sostiene que las acciones de Superhuman constituyeron una apropiación indebida comercial de imágenes, un reclamo con importantes fuerzas legales tanto en California como en Nueva York.
Ejemplos y números concretos
Angwin explicó su razonamiento en un poderoso Artículo de opinión del New York Times. Describió la experiencia de descubrir una versión de sí misma en IA que ofrecía consejos de escritura que ella nunca dio. La demanda busca daños y perjuicios y medidas cautelares que podrían impedir permanentemente a Superhuman implementar funciones similares sin consentimiento explícito. Si tiene éxito, este caso podría cambiar la forma en que cada empresa de IA aborda el uso de identidades de personas reales en sus productos.
- Archivado el mismo día que Superhuman anunció el cierre de Expert Review.
- Alega violaciones de las leyes de privacidad, derechos de publicidad y protección de imágenes.
- Objetivos jurisdicción de Nueva York y California para lograr el máximo impacto legal.
- busca estatus de demanda colectiva para representar a todos los individuos afectados.
- Podría establecer un precedente histórico para la protección de la identidad mediante IA en todo el país.
💰 Potencial de ingresos: Los analistas legales estiman que un veredicto exitoso de una demanda colectiva podría generar daños que oscilarían entre 50 y 200 millones de dólares, dependiendo del número de personas afectadas y de la evaluación de explotación comercial que haga el tribunal. Para los creadores individuales, este caso podría establecer un marco financiero para conceder licencias de derechos de identidad a plataformas de IA en el futuro.
10. Qué significa el escándalo de la revisión de expertos gramaticales para el futuro de la IA
El escándalo de Grammarly Expert Review no es un incidente aislado. Representa un estudio de caso decisivo sobre la naturaleza extractiva del desarrollo de la IA generativa. Sobrehumanos ingirieron el trabajo de expertos, lo utilizaron para generar sugerencias de IA, adjuntaron los nombres de esos expertos al resultado, ofrecieron la función a suscriptores de pago y nunca obtuvieron el consentimiento de las personas cuyos nombres eran el principal punto de venta. Este manual se está replicando en toda la industria de la IA.
Pasos clave que llevaron a este ajuste de cuentas de la industria
El propio Mehrotra sugirió en Decoder que el futuro de la economía de los creadores podría involucrar agentes de IA que representen a personas reales, editen escritos o interactúen con el público en su nombre. Si bien esta visión suena atractiva en teoría, la debacle de Expert Review demuestra que no se puede confiar en que las empresas de IA la implementen de manera ética sin una supervisión regulatoria estricta y marcos de consentimiento explícitos. Los creadores deben tener control total sobre si se utiliza su identidad y cómo.
Mi análisis y experiencia práctica
Según mis 18 meses de análisis de las violaciones éticas de la IA en toda la industria, el patrón es consistente: las empresas extraen primero, luego se disculpan y, en tercer lugar, presionan contra la regulación. El único control significativo de este comportamiento proviene de la exposición pública, la responsabilidad legal y la acción regulatoria. El escándalo de Expert Review aceleró los tres simultáneamente, convirtiéndolo en un posible punto de inflexión en la forma en que la sociedad gobierna la relación de la IA con la identidad humana y el trabajo creativo.
- Modelos de IA extractiva Tratar la identidad humana como materia prima gratuita para productos comerciales.
- Impulso regulatorio en Nueva York y California podría sentar un precedente vinculante.
- Consentimiento del creador debe convertirse en un requisito legal no negociable, no en un cambio de función.
- Marcos de compensación Es necesario establecer normas para el uso comercial de la similitud en la IA.
- Vigilancia pública sigue siendo el mecanismo de rendición de cuentas más eficaz disponible en la actualidad.
🏆 Consejo profesional: Todo profesional con presencia en línea debe buscar periódicamente su nombre en plataformas y herramientas de inteligencia artificial. Configure alertas de Google y supervise los productos de IA emergentes en su campo. Si descubre un uso no autorizado de su identidad, documente todo inmediatamente con capturas de pantalla y marcas de tiempo. Esta evidencia se vuelve invaluable para procedimientos legales o campañas de rendición de cuentas públicas.
❓ Preguntas frecuentes (FAQ)
Grammarly Expert Review era una función impulsada por inteligencia artificial que generaba sugerencias de escritura y las atribuía a expertos reales sin consentimiento. Fracasó porque los periodistas descubrieron que se estaban utilizando sus nombres, las sugerencias eran inexactas, los enlaces a las fuentes estaban rotos y una reacción pública masiva obligó a la empresa a desactivarlo a los pocos días de su exposición.
No. Superhuman (anteriormente Grammarly) no obtuvo el consentimiento de ninguno de los expertos nombrados. La compañía lanzó silenciosamente la función en agosto de 2025 y solo creó una bandeja de entrada de correo electrónico de exclusión voluntaria siete meses después, después de la exposición pública. Ningún experto fue notificado, consultado o compensado antes de que sus nombres aparecieran en el producto.

