# Как ИИ «думает» простыми словами

Давайте честно: ИИ не думает в человеческом понимании. У него нет мозга, нет нейронов (только математические модели), нет сознания. Он **предсказывает**.

## Принцип Т9 на стероидах

Представьте, что у вас в телефоне есть автозамена (Т9), но она прочитала весь интернет. Вы пишете: *"Уважаемый Иван..."* Т9 предлагает: *"Иванович"*. Вы пишете: *"Прошу..."* Т9 предлагает: *"рассмотреть"*.

Современные языковые модели (LLM — Large Language Models, такие, как GPT, Claude) работают по тому же принципу. Они берут ваш текст и рассчитывают, какое слово (или часть слова — токен) вероятнее всего пойдёт следующим.

## Аналогия: Библиотекарь-стажёр

Представьте стажёра в бесконечной библиотеке. Он прочитал абсолютно все книги, статьи и форумы в мире. У него феноменальная память, но у него нет жизненного опыта. Он никогда не ел шарлотку, не влюблялся и не открывал счет в банке.

* Если вы спросите: *"Как испечь шарлотку?"*, он мгновенно найдёт 10 000 рецептов, усреднит их и выдаст один идеальный рецепт: "Возьмите 3 яйца, стакан муки...".
* Если вы спросите: *"Любит ли меня Маша?"*, он не знает, кто такая Маша. Но он читал тысячи романов и может написать красивое, но бессмысленное эссе о любви, основываясь на том, как об этом писали Толстой и Достоевский.

![Процесс обучения нейросети](https://1696984035-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FORRcReyOcZhagfkEL1Kd%2Fuploads%2Fgit-blob-48e6cfd73ebec6111cb79238f264af7259bfa756%2Fimg_03.png?alt=media)

## Как это работает на практике?

Когда вы просите ИИ "Напиши письмо клиенту", он не "думает" о клиенте. Он начинает генерировать текст слово за словом:

1. "Уважаемый..." (вероятность 99%)
2. "...клиент," (вероятность 80%)
3. "...спасибо..." (вероятность 70%)
4. "...за..." (вероятность 95%)
5. "...обращение." (вероятность 90%)

Именно поэтому ИИ может быть таким убедительным, даже когда он ошибается. Он просто выбирает самые вероятные слова, основываясь на огромном количестве прочитанного текста.

## Почему ИИ ошибается: Феномен Галлюцинаций

Поскольку ИИ — это "генератор вероятного текста", он иногда может сгенерировать полную чушь, которая звучит очень убедительно. Это называется **галлюцинация**.

**Почему это происходит?** ИИ не проверяет факты в реальном мире. У него нет доступа к "истине". Он просто подбирает слова, которые *красиво звучат вместе*.

{% hint style="danger" %}
**Пример из жизни:** Юрист в США использовал ChatGPT для суда. ИИ выдумал несуществующие судебные дела, потому что их названия звучали правдоподобно. Юриста лишили лицензии.
{% endhint %}

**Как с этим жить?**

1. **Доверяй, но проверяй.** Всегда перепроверяйте факты, цифры и даты.
2. **Просите источники.** Спрашивайте: *"На основе чего ты сделал этот вывод?"*.
3. **Используйте для черновиков.** Пусть он пишет "рыбу", а факты проверяете вы.

**Проверка знаний: Галлюцинации** *Выберите правильный ответ:*

* [ ] ИИ всегда говорит правду, если спросить вежливо.
* [ ] ИИ может выдумать факт, если он часто встречается в похожем контексте. ✓
* [ ] Галлюцинации бывают только у старых моделей.
