Escándalo en Grammarly: identidades usadas sin permiso
Grammarly elimina función de revisión con IA tras demanda

Superhuman, la empresa matriz de Grammarly, anunció esta semana la desactivación de su controvertida función “Expert Review” luego de una oleada de críticas de periodistas, autores y académicos cuyas identidades fueron utilizadas sin permiso para respaldar sugerencias generadas por inteligencia artificial. La decisión llegó el mismo día en que la periodista Julia Angwin presentó una demanda colectiva contra la compañía.
La función, lanzada en agosto de 2025 como parte de la suite de agentes de IA de Grammarly, ofrecía retroalimentación de escritura presentada como “inspirada” en figuras reales como Stephen King, Neil deGrasse Tyson y Carl Sagan, además de numerosos periodistas en activo. La controversia estalló el 4 de marzo cuando Wired expuso por primera vez el uso de identidades reales, y se intensificó cuando la historiadora medieval Verena Krebs descubrió que David Abulafia —historiador fallecido en enero de 2026— figuraba como experto disponible.
La situación se agravó aún más cuando The Verge encontró que varios de sus propios empleados, incluido su editor en jefe Nilay Patel, habían sido convertidos en personas de IA sin su conocimiento. La respuesta inicial de Superhuman —ofrecer una dirección de correo electrónico para darse de baja— fue ampliamente criticada, dado que nadie había dado su consentimiento en primer lugar. Un día después, la empresa dio marcha atrás y desactivó la función por completo.
El autor y corrector Benjamin Dreyer expuso la dudosa utilidad de la herramienta al introducir texto de relleno lorem ipsum y recibir igualmente consejos de escritura atribuidos a Stephen King. Casey Newton, de Platformer, señaló que los consejos generados no guardaban ninguna semejanza con el estilo real de los escritores que pretendía emular.
La demanda de Angwin alega que Superhuman violó derechos de privacidad y de imagen al utilizar identidades con fines comerciales sin consentimiento. La profesora Vanessa Heggie, de la Universidad de Birmingham, resumió el sentir general al señalar que la empresa estaba “creando pequeños LLMs basados en el trabajo que scrapearon, usando los nombres y la reputación de las personas” sin su autorización. Si la función rediseñada que prometió el CEO Shishir Mehrotra podrá resolver tanto las objeciones legales como las éticas sigue siendo una pregunta abierta.



