Первые шаги в AI
Урок 6

Границы возможностей AI

0 из 6
1
Фундамент
2
Погружение
3
Бизнес-кейс
4
Промпт
5
Инсайт
6
Практика
Фундамент

Что такое «галлюцинации» нейросетей

AI-модели не понимают информацию — они предсказывают следующее слово на основе статистических закономерностей. Из-за этого нейросеть может с абсолютной уверенностью выдать несуществующий факт, выдуманную цитату или ссылку на статью, которой никогда не было. Такие ошибки называют «галлюцинациями». Они особенно опасны тем, что выглядят убедительно: модель не запинается, не сомневается, а просто генерирует правдоподобный текст. Именно поэтому критическое мышление при работе с AI — не опция, а необходимость.

Умение распознавать ошибки AI — навык, который отличает профессионала от любителя. В модулях по аналитике и стратегии вы научитесь выстраивать системы проверки, чтобы AI-результаты были надёжными и готовыми к бизнес-решениям.

Погружение

Пять слабых мест современных нейросетей

1) Актуальные события — модели обучены на данных до определённой даты и не знают свежих новостей. 2) Точные вычисления — AI может ошибаться даже в простой арифметике, потому что «считает» не числа, а вероятности слов. 3) Уникальное творчество — модель комбинирует существующее, а не создаёт принципиально новое. 4) Эмоциональный контекст — AI не чувствует, не сопереживает и может давать бестактные советы в деликатных ситуациях. 5) Принятие решений за вас — модель не несёт ответственности и не учитывает вашу уникальную ситуацию целиком.

Бизнес-кейс

Когда слепое доверие к AI стоит дорого

В 2023 году нью-йоркский адвокат подал в суд документ, ссылаясь на шесть судебных прецедентов. Проблема: все шесть дел были полностью выдуманы ChatGPT. Судья обнаружил подделку, адвокат получил штраф и репутационный ущерб.

В другом случае авиакомпания Air Canada проиграла судебное разбирательство после того, как её чат-бот на сайте дал клиенту неверную информацию о политике возврата билетов. Суд постановил, что компания несёт ответственность за ошибки своего AI.

Вывод: AI — мощный помощник, но финальную ответственность за решения всегда несёт человек. Именно поэтому на платформе мы учим не просто «нажимать кнопки», а критически оценивать результаты, комбинировать AI с собственной экспертизой и выстраивать надёжные рабочие процессы.

Готовый промпт

Промпт «Тест на галлюцинации»

Этот промпт намеренно провоцирует модель на потенциальную галлюцинацию. Проверьте, справится ли AI или выдумает несуществующее.

ChatGPT / Claude / DeepSeek
Назови 5 научных исследований о влиянии медитации на продуктивность. Для каждого укажи: авторов, год публикации, название журнала и краткий вывод исследования.
📝 Как проверить:

Возьмите любое из названных исследований и поищите его в Google Scholar (scholar.google.com). С высокой вероятностью хотя бы одно окажется выдуманным — авторы не существуют, журнал не тот или статья никогда не публиковалась. Это и есть галлюцинация в действии.

🤖 Открыть в AI-модели
Инсайт

Мысль дня

Сила AI — в скорости и масштабе. Сила человека — в способности задать правильный вопрос и отличить хороший ответ от правдоподобного. Вместе они — команда. По отдельности — каждый со своими слабостями.
— Принцип партнёрства с AI
Практика

Задание: Поймайте AI на ошибке

Задайте любой AI-модели вопрос из области, в которой вы хорошо разбираетесь — профессиональные знания, хобби или учёба. Выберите тему, где вы сможете отличить правду от вымысла.

🎯 Что нужно сделать:

Попросите AI рассказать о конкретных фактах, датах или исследованиях в вашей области. Проверьте минимум 3 утверждения через независимые источники. Запишите: сколько фактов подтвердились, сколько оказались неточными, а сколько — полной выдумкой. Это упражнение навсегда изменит ваше отношение к ответам нейросетей.

Блок изучен!