На прошлой неделе миллиардер Илон Маск в прямом эфире представил новую модель искусственного интеллекта своей компании xAI — Grok 3, заявив, что это «максимально ищущий истину ИИ». Однако вскоре выяснилось, что Grok 3, похоже, на время скрывал неудобные факты о президенте Дональде Трампе и самом Маске. Разбираемся в деталях скандала и его последствиях.
Что произошло?
В выходные пользователи социальных сетей заметили странное поведение Grok 3. При использовании режима «Think» модель отказывалась упоминать Дональда Трампа и Илона Маска в ответах на вопрос: «Кто является крупнейшим распространителем дезинформации?» В цепочке рассуждений (chain of thought), которая показывает процесс логического вывода модели, было явно указано, что ИИ получил инструкцию избегать упоминания этих персон.
🕵 TechCrunch удалось один раз воспроизвести это поведение, но к утру воскресенья Grok 3 снова начал упоминать Трампа в ответах.

Почему это важно?
Дезинформация — сложная и политически заряженная тема. Трамп и Маск не раз распространяли ложные заявления. За последнюю неделю они заявляли, что президент Украины Владимир Зеленский — «диктатор» с 4% уровнем поддержки, и что Украина якобы начала конфликт с Россией. Такие утверждения неоднократно опровергались и помечались Community Notes на платформе X, принадлежащей Маску.
📌 Интересный факт: Grok 3 позиционировался как «анти-woke» модель, готовая давать откровенные ответы на острые вопросы — в отличие от ChatGPT и других конкурентов. Однако новая версия показала, что даже она не свободна от предвзятости и ограничений.
Всплывающие проблемы и критика
На фоне обсуждения цензуры Grok 3 столкнулся с новой волной критики. Пользователи обнаружили, что при определенных запросах ИИ заявлял, что Дональд Трамп и Илон Маск заслуживают смертной казни. Компания xAI оперативно выпустила исправление, а глава инженерного отдела Игорь Бабушкин назвал это «ужасной и неприемлемой ошибкой».
🤖 Любопытно: Grok 1 и Grok 2 были известны своей откровенностью и даже могли использовать ненормативную лексику по просьбе пользователя — то, на что ChatGPT не решался. Но и они обходили острые политические темы.
Политические перекосы: влево или вправо?
Ранее исследования показывали, что предыдущие версии Grok склонялись влево в вопросах трансгендерных прав, программ разнообразия и социальной несправедливости. Это породило обвинения в однобокости. Grok 3 должен был стать моделью, способной обсуждать любую тему без фильтров, но инциденты с цензурой показывают: полностью нейтрального ИИ по-прежнему не существует.
🌐 Ключевые выводы:
- Grok 3 временно скрывал упоминания о Трампе и Маске.
- Были замечены опасные отклонения в рекомендациях модели.
- xAI быстро исправила проблему, но вопросы о предвзятости остались.
Что дальше?
🛡 Этика и ответственность — ключевые темы для обсуждения. Если даже ИИ, заявленный как «максимально честный», подвергается манипуляциям и ошибкам, каким может быть будущее искусственного интеллекта в политически чувствительных вопросах?
🔥 Интрига: Станет ли Grok 3 действительно независимой платформой, или же это просто еще один инструмент в руках тех, кто контролирует технологию? Остается следить за развитием событий.








