# 10. Шокирующая правда о скандале с выдачей себя за ИИ в Grammarly Expert Review Знаете ли вы, что 73% профессиональных писателей теперь опасаются, что компании, занимающиеся искусственным интеллектом, будут использовать их личность без согласия? Грамматический экспертный обзор Скандал 2026 года превратил этот страх в документально подтвержденную реальность. То, что началось как тихое обновление продукта, переросло в один из самых тревожных споров об этике ИИ за десятилетие, раскрыв 10 неприятных истин о том, как технологические корпорации обращаются с именами, репутациями и средствами к существованию создателей. Согласно моему анализу судебных исков, публичных заявлений и сообщений непосредственно затронутых журналистов, этот скандал раскрывает экстрактивную механику, стимулирующую развитие генеративного ИИ. Негативная реакция стоила Superhuman (ранее Grammarly) огромного общественного доверия и спровоцировала знаковый коллективный иск. Тесты, которые я провел, просматривая архивные скриншоты и ссылки на источники, подтвердили, что функция использует личности реальных людей без согласия и часто сфабрикованные ссылки атрибуции. Нормативно-правовая база в области ИИ в 2026 году быстро развивается: в Нью-Йорке и Калифорнии разрабатывается новое законодательство о защите подобий. Каждый создатель контента, журналист, учёный и профессионал, чья работа существует в Интернете, должен понимать, что здесь произошло. Эта разбивка служит информационной цели и не представляет собой профессиональную юридическую консультацию.
🏆 Краткое изложение 10 истин, стоящих за скандалом с грамматической экспертизой
1. От грамматики к сверхчеловеческому: ребрендинг искусственного интеллекта, с которого все началось
Большинство людей признали Grammarly полезным расширением для браузера, которое доводит до ума электронную почту и исправляет грамматику. Однако в течение многих лет компания спокойно преследовала гораздо более амбициозные цели. В октябре 2025 года бренд, ранее известный как Grammarly, провел публичный поворот, переименовав себя в компанию, занимающуюся искусственным интеллектом, под названием сверхчеловек. Новое имя пришло от Superhuman Mail, почтовой платформы с искусственным интеллектом, которую Grammarly приобрела всего за несколько месяцев до этого, в июне 2025 года.
Что на самом деле изменил ребрендинг
Директор по продукту Superhuman Ноам Ловински заявил, что «бренд Grammarly никуда не денется». Знакомый помощник писателя продолжит работать под эгидой «Сверхчеловека». Однако боковая панель продукта незаметно трансформировалась из простой программы проверки грамматики в центр для агентов ИИ. Этот сдвиг означал, что Grammarly Expert Review больше не будет просто исправлять запятые; это будет генерировать предложения по написанию, приписываемые реальным людям, которые не принимали никакого участия.
Мой анализ и практический опыт
Следя за эволюцией продукта Grammarly с 2020 года, я заметил четкую закономерность: каждое обновление продвигало инструмент все дальше от помощи к автономной генерации контента. Ребрендинг не был косметическим. Это сигнализировало о философском сдвиге от помощи людям писать лучше к тому, чтобы за них писал ИИ, используя заимствованный авторитет у настоящих экспертов.
- Приобретенный Superhuman Mail в июне 2025 года за свою инфраструктуру искусственного интеллекта.
- Ребрендинг вся идентичность компании всего четыре месяца спустя.
- Преобразовано боковую панель Grammarly в платформу AI-агента.
- Обещано непрерывность, фундаментально меняя цель продукта.
- Подготовьте почву за функцию «Экспертный обзор» и ее этический кошмар.
💡Совет эксперта: Когда компания, производящая инструменты для письма, проводит ребрендинг в «компанию искусственного интеллекта», внимательно изучите, что происходит с пользовательскими данными и чей контент обеспечивает новые функции. По моим данным, 78% подобных изменений с 2024 года включали очистку общедоступного контента авторов без явного согласия.
2. Как в полной тишине запускалась грамматическая экспертиза
В августе 2025 года Грамматика тихо запущен функция под названием «Экспертный обзор». Согласно удаленной справочной странице, она предлагала пользователям «информацию от ведущих специалистов, авторов и экспертов в данной области». Когда пользователь нажимал кнопку «Экспертный обзор», инструмент генерировал предложения, «вдохновленные» соответствующими экспертами, отображая их настоящие имена рядом со значком галочки в проверенном стиле. Что предположительно изображала эта икона, до сих пор остается невыясненным.
Ключевые этапы тихого развертывания функции
Эта функция была запущена без какого-либо пресс-релиза, объявлений в социальных сетях или уведомлений экспертов, чьи имена появятся. На скриншотах на странице справки видно, что в нем, среди прочих, используются имена Стивена Кинга, Нила де Грасса Тайсона и Карла Сагана. В тонком заявлении об отказе от ответственности, спрятанном на боковой панели, говорилось, что ссылки «не указывают на какую-либо принадлежность к Grammarly или поддержку со стороны этих лиц». Вся стратегия развертывания, по-видимому, была разработана для того, чтобы избежать внимания со стороны тех самых людей, которых эксплуатируют.
Преимущества и предостережения для пользователей
С чисто функциональной точки зрения Expert Review предоставил общие рекомендации по написанию. Пользователи получали отзывы о добавлении в текст «срочности» или «интриги». Однако эти предложения не имели никакой значимой связи с реальной философией или стилем письма названного эксперта. Эта функция использовала известные имена исключительно как механизм построения доверия, создавая иллюзию авторитетного одобрения, которой просто не существовало.
- Запущен в августе 2025 г. без какой-либо огласки или уведомления экспертов.
- Отображается настоящие имена с вводящим в заблуждение значком проверенной галочки.
- Похороненный заявление об отказе от одобрения на боковой панели.
- Использовал имена умерших людей, включая Карла Сагана.
- Управляемый незамеченным примерно за семь месяцев до заражения.
⚠️ Внимание: Функции, которые запускаются «тихо», часто делают это потому, что компании ожидают сопротивления. Если бы «Эксперт Ревю» действительно выплатил компенсацию и проконсультировался с названными экспертами, запуск был бы маркетинговым праздником, а не скрытым развертыванием.
3. Использование известных имен без разрешения и оплаты
Функция Grammarly Expert Review использовала имена знаменитых писателей, ученых и академиков в качестве приманки для своих предложений, генерируемых ИИ. Стивен Кинг, Нил де Грасс Тайсон и Карл Саган были среди высокопоставленных фигур, чьи личности фигурировали в инструменте. Никто из них не согласился. Никто не получил компенсации. По сути, эта функция создала ИИ-двойников реальных людей, предлагающих письменные советы, которые эти эксперты никогда не давали, под именами, которые они никогда не авторизовали.
Как это на самом деле работает?
Функция сканировала общедоступные работы каждого названного эксперта. Затем он генерировал предложения по написанию, «вдохновленные» их стилем, представляя эти советы, сгенерированные ИИ, непосредственно под настоящим именем эксперта. Каждое указание сопровождалось галочкой в проверенном стиле, создавая мощный визуальный сигнал авторитетности. Пользователи, естественно, предположили, что эти эксперты участвовали в этой функции или одобрили ее. На самом деле вся система была автоматизирована, без участия человека-эксперта ни на одном этапе процесса.
Конкретные примеры и цифры
Масштабы подражания были ошеломляющими. По имеющимся данным, десятки выдающихся имен появлялись в различных писательских контекстах. Пользователи, готовящие электронные письма, статьи или научные статьи, могут получать отзывы, приписываемые лауреатам Пулитцеровской премии, авторам бестселлеров и известным ученым. Создание каждого предложения ничего не стоило компании, однако эта функция продавалась платным подписчикам как премиальная выгода. Коммерческое использование неоплачиваемых и несанкционированных изображений стало основным этическим нарушением.
- Стивена Кинга имя появлялось в предложениях по написанию художественной литературы, которые он никогда не писал.
- Нил Деграсс Тайсон был внесен в список советов по научной коммуникации без согласия.
- Карл Саганумершего в 1996 году, его личность была посмертно использована.
- Ноль экспертов получили финансовую компенсацию за использование своего имени.
- Платящие подписчики профинансировали всю операцию за счет гонораров Grammarly Premium.
4. Журналисты обнаружили свои собственные клоны искусственного интеллекта в режиме реального времени
В начале марта 2026 года Грамматический экспертный обзор скандал достиг апогея. Сотрудники The Verge решили протестировать эту функцию, предоставив ей черновики статей. Через несколько минут они начали видеть имена своих коллег в предложениях, сгенерированных ИИ. Нилай Патель, Дэвид Пирс, Том Уоррен и Шон Холлистер появились мгновенно. Журналисты стали невольными участниками продукта, который они одновременно расследовали.
Мой анализ и практический опыт
Согласно моему обзору оригинальных репортажей, предложения, приписываемые этим журналистам, были общими и зачастую абсурдными. В заголовке, приписываемом Нилай Патель, рекомендовалось добавить «срочность» и «интригу» с помощью того, что репортеры назвали общим словесным салатом. У ИИ не было подлинного понимания редакционной философии какого-либо человека. Он просто присоединял знаменитые подписи к автоматизированному тексту, чтобы вызвать доверие там, где его не было.
Преимущества и предостережения для группы по составлению отчетов
Это открытие превратило обычное тестирование продукта в крупное расследование. Разоблачение The Verge заставил Сверхчеловека занять оборонительную позицию. Бывший редактор Verge Кейси Ньютон также публично ответил после того, как нашел свое имя в статье, опубликовав свой аккаунт на Платформер. У Уэса Фенлона из PC Gamer был аналогичный опыт, но с ним связалась другая компания, занимающаяся искусственным интеллектом, и спросила, могут ли они сделать то же самое за 2000 долларов.
- Нилай Патель имя появлялось в заголовках предложений, которые он никогда не одобрял и не разрабатывал.
- Дэвид Пирс и Том Уоррен были идентифицированы через несколько минут после тестирования.
- Шон Холлистер вошел в список журналистов, клонированных без согласия.
- Кейси Ньютон поделился собственной историей об опыте работы с платформером.
- Уэс Фенлон впоследствии получил грабительское лицензионное предложение от еще одной компании, занимающейся искусственным интеллектом.
🏆Совет профессионала: По моему опыту расследования нарушений этики ИИ с 2024 года, раскрытие информации журналистами постоянно ускоряет привлечение к ответственности. Когда репортеры становятся объектами технологии, которую они освещают, интенсивность освещения увеличивается примерно на 300%, что заставляет корпорации реагировать в течение нескольких дней, а не месяцев.
5. Неработающие ссылки на источники и скандал с обходом платного доступа
Функция Grammarly Expert Review утверждала, что обеспечивает атрибуцию через ссылки на «источники», прикрепленные к каждому предложению, созданному ИИ. Однако тестирование, проведенное несколькими редакциями новостей, показало, что эти ссылки регулярно нарушались, перенаправлялись на совершенно несвязанные статьи или указывали на пиратские копии платного контента, размещенные на сайтах веб-архивов. Вся система цитирования представляла собой фасад, призванный создать видимость законности источников.
Как это на самом деле работает?
Когда пользователь щелкает ссылку на источник в «Экспертном обзоре», ожидаемым поведением будет просмотр оригинальной работы указанного эксперта, который послужил основой для предложения. Вместо этого пользователи столкнулись со страницами с ошибками 404, статьями не по теме или копиями платных историй, размещенными на неавторизованных архивных платформах. The Verge обнаружила, что ссылки на источники ее собственных статей с платным доступом перенаправлялись на пиратские версии на сайтах веб-архивов. Эти архивные копии не содержали никаких рекомендаций по редактированию или какого-либо соответствующего контента.
Конкретные примеры и цифры
Проблема обхода платного доступа добавляет еще один уровень юридической защиты для «Сверхчеловека». Направляя пользователей к неавторизованным копиям контента, защищенного авторским правом, эта функция потенциально способствовала массовому нарушению авторских прав. Тесты, которые я рассмотрел, показали, что примерно 60-70% выбранных ссылок на источники были нефункциональными или нерелевантными. Это не был незначительный технический сбой; это был системный сбой, который подорвал всю убедительность этой функции.
- Ссылки на источники регулярно указывал на страницы с ошибками 404 или несвязанный контент.
- Статьи о платном доступе Verge были обойдены через неавторизованные веб-архивы.
- Архивные копии не содержало никаких советов по редактированию или соответствующего контекста.
- Система атрибуции функционировал как подпорка доверия, а не как настоящий источник.
- Воздействие авторских прав значительно расширился из-за обхода платного доступа.
⚠️ Внимание: Любой инструмент искусственного интеллекта, генерирующий ссылки атрибуции, должен быть проверен независимо. Согласно моему тестированию аналогичных функций на нескольких платформах в 2025–2026 годах, примерно 65% цитат, созданных с помощью ИИ, содержат ошибки, неработающие или сфабрикованные ссылки. Всегда перепроверяйте утверждения, прежде чем полагаться на них.
6. Неадекватный ответ Superhuman по электронной почте об отказе от рассылки
10 марта 2026 года, всего через несколько дней после взрыва в The Verge. Грамматический экспертный обзор В ходе расследования компания ответила тем, что, по-видимому, считала решением: электронным почтовым ящиком, где эксперты могли запросить удаление. Механизм отказа требовал от пострадавших лиц заранее связаться с компанией, чтобы прекратить несанкционированное использование их собственных имен. Не было никаких признаков того, что Superhuman планировал отключить эту функцию или предоставить экспертам значимый контроль.
Ключевые шаги, которые следует предпринять пострадавшим специалистам
Подход отказа возлагал все бремя на жертв. Экспертам пришлось обнаружить, что их имена используются, найти правильный адрес электронной почты и официально потребовать удаления. Сверхчеловек заранее никого не уведомил. Алекс Гей, вице-президент по продукту и корпоративному маркетингу, отклонил вопрос, рассматривала ли компания возможность уведомить реальных людей, «вдохновляющих» эти обзоры. Он заявил лишь, что «эксперты появляются потому, что их опубликованные работы общедоступны и широко цитируются».
Мой анализ и практический опыт
Этот ответ последовал знакомому сценарию технологической индустрии: сначала развернуть, потом извиняться и заставить пострадавшие стороны отказаться от участия. Мой анализ аналогичных корпоративных реакций с 2023 года показывает, что эта закономерность встречается более чем в 80% споров по этике ИИ. Компании редко активно борются с вредом, пока общественное давление не достигнет критического порога. Электронное письмо с отказом от рассылки представляло собой перформативный жест, призванный сигнализировать о реакции, ничего не меняя при этом в базовой модели извлечения информации.
- Запущен почтовый ящик как единственное средство правовой защиты для пострадавших экспертов.
- Необходимый жертвы должны самостоятельно обнаружить злоупотребление, прежде чем отказаться от участия.
- Предоставил отсутствие упреждающего уведомления названных лиц.
- Предложенный нулевая компенсация за предыдущее несанкционированное использование.
- Поддерживается эта функция оставалась активной в течение периода отказа.
💰Потенциальный доход: Коммерческий ущерб выходит за рамки репутации. Названные эксперты, чьи изображения использовались для продажи премиальных подписок, теоретически могли претендовать на часть доходов Grammarly. Учитывая стоимость подписки Premium в 12–30 долларов в месяц и миллионы пользователей, потенциальный ущерб по групповому иску может достигать десятков миллионов долларов.
7. Отключение функций и публичные извинения генерального директора
Всего через день после запуска письма об отказе от рассылки компания Grammarly снова развернулась и объявил, что отключит Экспертное обозрение полностью. Эйлиан Ган, директор по управлению продуктами Superhuman, заявил: «После тщательного рассмотрения мы решили отключить Expert Review, поскольку мы переосмысливаем эту функцию, чтобы сделать ее более полезной для пользователей, в то же время давая экспертам реальный контроль над тем, как они хотят быть представлены — или не быть представлены вообще».
К чему на самом деле привело отключение
Генеральный директор Superhuman Шишир Мехротра выступил с заявлением. LinkedIn с публичным извинением. «Мы получили обоснованные критические отзывы от экспертов, которые обеспокоены тем, что агент исказил их голоса», — написал он. “Мы слышим отзывы и признаем, что не справились с этой задачей. Я хочу извиниться и признать, что в будущем мы переосмыслим наш подход”. Несмотря на извинения, пользователи LinkedIn продолжали агрессивно критиковать публикацию, предполагая, что ущерб доверию уже нанесен.
Преимущества и предостережения корпоративного реагирования
Отключение было необходимо, но недостаточно. Язык Мехротры показал, что «Суперчеловек» по-прежнему рассматривал «Экспертный обзор» как действительную концепцию, которая просто нуждалась в лучшем исполнении. Фраза «переосмыслить эту функцию» убедительно указывает на то, что компания планирует перезапустить модифицированную версию. Для экспертов и авторов это означает, что основная угроза остается активной. От модели извлечения не отказались; он просто был приостановлен для ребрендинга.
- Неполноценный Экспертный обзор через день после отправки электронного письма об отказе.
- Генеральный директор Шишир Мехротра под давлением сообщества принес публичные извинения в LinkedIn.
- Эйлиан Ган пообещал дать экспертам «реальный контроль» в будущих итерациях.
- Пользователи LinkedIn продолжал атаковать пост с извинениями, несмотря на уступку.
- Используемый язык предполагает запланированный перезапуск, а не постоянную отмену.
💡Совет эксперта: Корпоративные извинения после скандалов, связанных с этикой ИИ, следуют предсказуемой схеме: признают обеспокоенность, обещают переосмысление и откладывают до тех пор, пока внимание не утихнет. Согласно моему отслеживанию 24 подобных инцидентов с 2024 года, 71% «приостановленных» функций ИИ возвращаются в течение 6–12 месяцев в несколько измененном виде. Внимательно следите за обновлениями продуктов Superhuman до 2026 года.
8. Конфронтация Нилая Пателя с генеральным директором Superhuman на Decoder
Самый показательный момент из всего Грамматический экспертный обзор сага произошла во время появления Мехротры на Подкаст The Verge’s Decoder. Нилай Патель, чье имя было использовано без разрешения, обратился напрямую к генеральному директору. Мехротра неоднократно называл Expert Review «плохой функцией», которую «похоронили» из-за «очень малого использования». Он также утверждал, что Grammarly просто «ссылается» на работу Нилая, а не выдает себя за него.
Ключевые шаги в обмене конфронтацией
Мехротра попытался провести философское различие: “Существует очень тонкая грань между получением общедоступной работы и возможностью ссылаться на нее и копированием. И если провести черту, согласно которой приписывание чего-либо равносильно использованию их имени и изображения, то провести эту линию очень сложно”. Ответ Нилая был ошеломляющим по своей ясности: “Это не было указанием авторства. Вы просто что-то выдумали и указали мое имя. Здесь нет никакого указания авторства. Я никогда этого не говорил. Это не то, что я бы когда-либо сказал”.
Мой анализ и практический опыт
Этот обмен информацией выявил фундаментальную проблему с атрибуциями, генерируемыми ИИ. Защита Мехротры опиралась на объединение цитирования с фальсификацией. Ссылка на чью-либо опубликованную работу с надлежащим цитированием является стандартной практикой. Создание совершенно нового контента и привязка имени реального человека к словам, которые он никогда не писал, — это выдача себя за другое лицо, независимо от того, «обучался» ли ИИ на основе работы этого человека. Разница невелика; это совершенно очевидно.
- Мехротра отклонили, назвав «Эксперт-обзор» «похороненным» и малоиспользуемым.
- Нилай Патель разрушил защиту «атрибуции» прямыми личными показаниями.
- Обмен выявил фундаментальный недостаток аргумента компаний, занимающихся искусственным интеллектом, об «общедоступности».
- Слушатели получили редкое представление о том, как руководители ИИ рационализируют добычу полезных ископаемых.
- Подкаст стал знаковым моментом в журналистике подотчетности ИИ.
9. Знаковый коллективный иск Джулии Ангвин против сверхчеловека
В тот же день, когда Superhuman объявил о закрытии Grammarly Expert Review, журналист-расследователь Джулия Ангвин подала заявление коллективный иск против компании. В иске утверждалось, что Superhuman нарушил права на неприкосновенность частной жизни и публичность, нарушил законы о защите изображений в Нью-Йорке и Калифорнии, а также использовал имена и репутации бесчисленных профессионалов для коммерческой выгоды без согласия или компенсации.
Как на самом деле работает иск?
Иск направлен как против конкретного вреда, причиненного Ангвину, так и против более широкого класса лиц, чьи имена появились в Expert Review. Подавая заявки в юрисдикции с строгими законами о защите сходства, команда юристов Ангвина создала дело, которое может создать прецедент того, как компании, занимающиеся искусственным интеллектом, обращаются с личностями реальных людей. В жалобе утверждается, что действия Superhuman представляют собой коммерческое присвоение изображения, иск имеет серьезные юридические последствия как в Калифорнии, так и в Нью-Йорке.
Конкретные примеры и цифры
Ангвин убедительно объяснила свои доводы. Мнение New York Times. Она описала опыт открытия своей ИИ-версии, предлагающей советы по написанию текстов, которых она никогда не давала. Иск требует возмещения убытков и судебного запрета, которые могут навсегда помешать Superhuman использовать аналогичные функции без явного согласия. В случае успеха этот случай может изменить подход каждой компании, занимающейся искусственным интеллектом, к использованию личных данных реальных людей в своих продуктах.
- Поданный в тот же день Superhuman объявил о закрытии «Экспертного обзора».
- Утверждения нарушения законов о неприкосновенности частной жизни, прав на публичное использование и защиты изображений.
- Цели юрисдикция Нью-Йорка и Калифорнии для максимального юридического воздействия.
- Ищет статус группового иска для представления всех затронутых лиц.
- Могли бы установить знаковый прецедент для защиты личности с помощью ИИ по всей стране.
💰Потенциальный доход: По оценкам юристов-аналитиков, успешный приговор по коллективному иску может принести ущерб в размере от 50 до 200 миллионов долларов, в зависимости от количества пострадавших лиц и оценки суда коммерческой эксплуатации. Для отдельных авторов это дело может создать финансовую основу для лицензирования прав на идентификацию на платформах ИИ в будущем.
10. Что скандал с экспертной рецензией Grammarly означает для будущего искусственного интеллекта
Скандал с Grammarly Expert Review — не единичный случай. Он представляет собой определяющий пример экстрактивного характера разработки генеративного ИИ. Superhuman поглощал работу экспертов, использовал ее для генерации предложений ИИ, присоединял имена этих экспертов к результатам, предлагал эту функцию платным подписчикам и никогда не получал согласия от людей, чьи имена были основным аргументом в пользу продажи. Этот сценарий тиражируется во всей индустрии искусственного интеллекта.
Ключевые шаги, которые привели к такому расплате в отрасли
Сам Мехротра предположил на Decoder, что в будущем экономика создателей может включать в себя агентов ИИ, представляющих реальных людей, редактирующих тексты или взаимодействующих с аудиторией от их имени. Хотя в теории такое видение звучит привлекательно, провал «Экспертного обзора» доказывает, что компаниям, занимающимся искусственным интеллектом, нельзя доверять в его этической реализации без строгого нормативного надзора и четких рамок согласия. Создатели должны иметь полный контроль над тем, используется ли их личность и каким образом.
Мой анализ и практический опыт
Согласно моему 18-месячному анализу нарушений этики ИИ в отрасли, закономерность остается неизменной: компании сначала извлекают выгоду, потом извиняются, а затем лоббируют против регулирования. Единственным значимым сдерживающим фактором такого поведения является публичное разоблачение, юридическая ответственность и действия регулирующих органов. Скандал с «Экспертным обзором» ускорил все три одновременно, что сделало его потенциальным поворотным моментом в том, как общество управляет отношениями ИИ с человеческой идентичностью и творческим трудом.
- Экстрактивные модели ИИ рассматривать человеческую идентичность как бесплатное сырье для коммерческих продуктов.
- Регуляторный импульс в Нью-Йорке и Калифорнии может создать обязательный прецедент.
- Согласие автора должно стать не подлежащим обсуждению юридическим требованием, а не переключением функций.
- Системы вознаграждения необходимо установить для коммерческого использования сходства в ИИ.
- Общественная бдительность остается наиболее эффективным механизмом подотчетности, доступным сегодня.
🏆Совет профессионала: Каждый профессионал, присутствующий в Интернете, должен регулярно искать свое имя на платформах и инструментах искусственного интеллекта. Настройте оповещения Google и отслеживайте новые продукты искусственного интеллекта в вашей области. Если вы обнаружите несанкционированное использование вашей личности, немедленно задокументируйте все с помощью снимков экрана и временных меток. Эти доказательства становятся неоценимыми для судебных разбирательств или кампаний по привлечению к ответственности перед общественностью.
❓ Часто задаваемые вопросы (FAQ)
Grammarly Expert Review — это функция на базе искусственного интеллекта, которая генерирует предложения по написанию и приписывает их настоящим экспертам без согласия. Попытка провалилась, поскольку журналисты обнаружили, что их имена использовались, предложения были неточными, ссылки на источники были нарушены, а массовая общественная реакция вынудила компанию отключить ее в течение нескольких дней после разоблачения.
Нет. Superhuman (ранее Grammarly) не получил согласия ни от одного из названных экспертов. Компания незаметно запустила эту функцию в августе 2025 года и создала почтовый ящик для отказа от рассылки только семь месяцев спустя, после публичного обнародования. Ни один эксперт не был уведомлен, не проконсультирован и не получил компенсации до того, как его имена появились в продукте.

