06.04.2025 г.ТЫ НИ ФИГА НЕ ПОНИМАЕШЬ В ИИ, ПОКА НЕ ПРОЧИТАЕШЬ ЭТОРаскладываю по полочкам все хайповые вопросы:
- Как эта ИИ-штука вообще работает?
- Как она учится?
- Как пашет ChatGPT?
- Как генерятся картинки?
- И главный срач: ИИ копирует или тырит искусство и контент?
Почему Художники и Издатели Бомбят на ИИ?Знаю, что многие художники ИИ не жалуют, некоторые прям хейтят. Думают, что ИИ ворует их работы, их стиль. Типа, нарисовал ты котика в своем уникальном стиле, а ИИ его "срисовал".
Еще одна группа недовольных – издатели. Не все, конечно, но вот New York Times, например, наехала на OpenAI (создателей ChatGPT), мол, вы наш контент копипастите. И даже в суд подали! Но так ли это на самом деле? Есть ли тут реальные основания?
А Ещё Поговорим:- Сможет ли ИИ обогнать людей ВО ВСЁМ? Стать настолько крутым, что сделает любую работу лучше нас?
- Будет ли у ИИ сознание? Самосознание? Разум?
Как работает мозг ИИ: нейронная сетьВ основе ЛЮБОГО современного ИИ (ChatGPT, Midjourney, Stable Diffusion, Sora, AlphaFold – пофиг) лежит
нейронная сеть.
Это, по сути, слои
узлов (точки) и
связей (линии между ними). Каждый узел связан с другими. И прикол в том, что эту штуку реально смоделировали по образу и подобию
человеческого мозга! Только у нас там нейроны и синапсы, а тут – узлы и связи. Но принцип похож: густая сеть, где всё связано со всем.
Пример на Котиках и Собачках (Классика!)Представь, у нас есть нейросеть, натренированная отличать кошек от собак. Как она это делает?
- Загружаем картинку кота.
- Картинка разбивается на данные.
- Эти данные проходят через первый слой узлов.
- Потом через второй, третий, и так далее, пока не дойдут до последнего слоя.
- На последнем слое нейросеть вычисляет результат и выдает: "Это КОТ!"
Каждый узел и связь решают, СКОЛЬКО данных пропустить на следующий слой.
- Упрощенный пример (в реальности сложнее): Этот узел отвечает за форму ушей, этот – за форму лап, тот – за глаза. Если на картинке уши как у кота, инфа идет дальше по "кошачьему" пути. Если нет – этот путь блокируется.
- В зависимости от картинки, поток данных идет по-разному. То так, то эдак.
- Важное отличие от мозга: Человеческие нейроны обычно либо срабатывают на 100%, либо молчат (закон "всё или ничего"). А узлы в ИИ могут пропускать процент данных: 0%, 30%, 50%, 100%. Это дает больше гибкости.
Слышал термин "
глубокое обучение" (deep learning)? Это как раз про обучение и использование нейросетей с
ДОФИГА слоями. Сеть получается "глубокой" – отсюда и название.
Как ИИ Учится? (Процесс Тренировки)Нейросеть не рождается умной. Изначально всё настроено
случайно (или взято из другой, уже обученной модели). Как же заставить ее идеально отличать кошек от собак?
Нужно СКОРМИТЬ ей ДАННЫЕ. ОЧЕНЬ. МНОГО. ДАННЫХ.- Готовим датасет: Берем тысячи (а лучше МИЛЛИОНЫ) картинок кошек и собак.
- Размечаем данные: Каждую картинку подписываем: "это собака", "это кошка". Это называется контролируемое обучение (supervised learning). Мы даем ИИ "ответы", которые он должен выучить. (Есть еще неконтролируемое обучение, где ИИ сам ищет закономерности без подсказок, но сейчас не об этом).
- Тренируем: По одной скармливаем картинки нейросети. Один полный прогон всех картинок называется эпохой.
- Пример 1: Скормили картинку собаки -> Нейросеть ответила "собака". Угадал! 👍 Молодец. Значит, "ручки" настроены неплохо, пока не трогаем.
- Пример 2: Скормили картинку кошки -> Нейросеть ответила "собака". ОШИБКА! ❌ Плохо. Значит, "ручки" надо подкрутить. ИИ знает, что ошибся, потому что мы ему сказали, что на картинке кошка.
Настройка- Если ИИ ошибся, он получает "штраф". Сигнал, что надо меняться.
- Он использует хитрый алгоритм – градиентный спуск (gradient descent).
- Настройка идет в обратную сторону (обратное распространение – backpropagation): сначала крутит ручки на последнем слое, потом на предпоследнем, и так до самого начала.
- Цель – подобрать такую настройку ручек, чтобы в следующий раз на эту же картинку он ответил правильно ("кошка").
Прогоняем миллионы картинок снова и снова, много эпох. Сначала ИИ лажает часто, но постепенно, подкручивая "ручки", он становится все точнее и точнее.
Вот так, по сути, и учится ИИ. Тупо переваривает гигантские объемы данных и подстраивает свои внутренние параметры.
Сколько слоев и узлов нужно?А фиг его знает! Раньше ученые подбирали это вручную. Сейчас часто используют
другой ИИ, чтобы определить оптимальную структуру (архитектуру) нейросети для конкретной задачи. Это целая наука. Разные ИИ могут иметь совершенно разное количество слоев и узлов.
Разные архитектуры для разных задачХотя основа – нейросеть, архитектуры бывают разные:
- Сверточные нейронные сети (CNN): Круты для обработки картинок, распознавания объектов.
- Рекуррентные нейронные сети (RNN) и LSTM: Хороши для анализа последовательностей (типа временных рядов, предсказания курса акций).
- Трансформеры (Transformers): На этой архитектуре построены почти все крутые языковые модели сегодня (GPT, Claude, Llama и т.д.).
Как работает ChatGPT? (языковая модель)Да тот же принцип! Обучаем нейронную сеть (Трансформер). Только вместо кошек и собак скармливаем ей
ВЕСЬ ЯЗЫК МИРА и вообще
ВСЕ ДАННЫЕ ИЗ ИНТЕРНЕТА.
Конечно, нейросеть у ChatGPT НАМНОГО сложнее, чем в нашем примере. По слухам, у
GPT-4 аж 1.76 ТРИЛЛИОНА параметров.- Пример обучения:
- Вопрос: "У какой планеты больше всего лун?" -> Ответ: "Сатурн".
- Вопрос: "Какая страна выиграла больше всего ЧМ по футболу?" -> Ответ: "Бразилия".
- Сложные запросы: А если попросить "Напиши эссе о..." или "Помогает ли креатин мышцам?" Ответ будет длинным и сложным. Как ИИ поймет, правильно он ответил или нет?
- Люди-учителя (RLHF): Изначально OpenAI наняла кучу людей, которые вручную проверяли ответы GPT. Правильно? Молодец. Неправильно? Получай "штраф" и подкручивай ручки. Это называется обучение с подкреплением на основе обратной связи с людьми (Reinforcement Learning from Human Feedback - RLHF).
Так и работают большие языковые модели: переваривают тонны текста и данных, учатся понимать запросы и генерировать осмысленные ответы.
Почему Одни Модели Круче Других? (Claude 3 vs GPT-3)
Скорее всего, у более крутых моделей (типа Claude 3) просто
больше параметров. Больше слоев, больше узлов, больше сложности. Чем сложнее нейросеть, тем лучше она справляется со сложными задачами, тем она "умнее".
Вот почему сейчас такой дикий спрос на
вычисления и
ИИ-чипы. Чтобы обучать и запускать нейросети с триллионами параметров, нужны ОГРОМНЫЕ мощности. Крупные техногиганты (Microsoft, Meta) скупают эти чипы сотнями тысяч!
Как работает генерация картинок? (Midjourney, Stable Diffusion)Теперь, когда ты шаришь в обучении нейросетей, сам догадаешься!
Вместо кошек/собак или текста, скармливаем нейросети
пары "картинка + текстовое описание". Миллионы таких пар!
- "Картинка кота в космосе" + текст "кот в космосе"
- "Фотография заката на море" + текст "закат на море"
- "Рисунок в стиле аниме" + текст "стиль аниме"
Нейросеть учится ассоциировать текст с визуальными характеристиками.
Хитрый Процесс (Диффузия):На самом деле, всё чуть сложнее. Например,
Stable Diffusion работает так:
- Берет не чистый лист, а случайный шум (как помехи на старом телеке).
- Шаг за шагом удаляет шум, ориентируясь на твой текстовый запрос (промт).
- В итоге из шума "проявляется" нужная картинка. Этот процесс называется обратной диффузией.
А чтобы научить ее этому, при тренировке делают наоборот:
- Берут реальную картинку.
- Шаг за шагом добавляют к ней шум, пока не останется один шум (прямая диффузия).
Но если смотреть глобально – это всё та же тренировка нейросети на парах "картинка-текст", чтобы она научилась генерить визуал по твоему запросу.
Так ИИ копирует или ворует искусство?Вот мы и подобрались к самому острому вопросу. Художники (не все, но многие) реально хейтят ИИ, считают, что он тырит их стиль, их работы.
- Как ИИ учится стилям? Ему скармливают картинки с подписями типа "стиль Грега Рутковски", "стиль Гибли", "аниме-стиль". ИИ учится ассоциировать визуальные черты с этими словами. Даешь ему промт "в стиле Гибли" – он генерит картинку с этими чертами.
- Это воровство? Это очень похоже на то, как учится человек. Мы видим кучу картин, понимаем: "Ага, это акварель", "О, это похоже на стиль Ван Гога". И потом сами можем попробовать рисовать в этом стиле.
- А фан-арт? Люди рисуют персонажей из чужих вселенных. Это плагиат? Почему на создателей фан-арта обычно не наезжают, а на ИИ – да?
- ИИ НЕ копипастит и НЕ обводит картинки. Он изучает закономерности стиля и воспроизводит их. Точно так же, как человеческий мозг. Это не копирование пиксель в пиксель.
А плагиат контента у издателей? (Дело NYT против OpenAI)Та же история. New York Times подает в суд на OpenAI, мол, вы копируете наш контент. Но подождите...
- Нейросеть (ChatGPT) обучена на всех данных мира, включая статьи NYT. Она изучила эту информацию, как и мы с вами, читая интернет.
- Когда ты просишь ChatGPT что-то рассказать, он пересказывает информацию, которую "прочитал", а не копирует статью слово в слово.
- Сравнение: Когда вышла статья NYT (кстати, фейковая) про увольнение Сэма Альтмана, куча других изданий (Business Insider, New York Post) перепечатали эту новость, ссылаясь на NYT. Это плагиат? Почему NYT не судится с ними?
- Они судятся с цифровым мозгом, который делает то же самое, что и люди: читает, усваивает информацию и потом ее воспроизводит своими словами.
ИИ и распознавание паттернов (Ключ ко Всему!)Если ты дочитал до сюда, то, наверное, понял: нейросеть – это
машина для распознавания паттернов (закономерностей).
- В хорошем эссе есть свои паттерны.
- У собак есть свои паттерны (что отличает их от кошек).
- У акварели или стиля Гибли есть свои паттерны.
ЖИЗНЬ ПОЛНА ПАТТЕРНОВ!- Успешные продавцы действуют по схожим схемам.
- Успешные компании используют похожие стратегии.
- Вирусные видео на YouTube часто сделаны по одному лекалу.
Задача нейросети –
находить эти паттерны и воспроизводить их.
Раз уж ИИ так круто шарит в поиске закономерностей, может ли он взломать то, что мы считаем невзламываемым?
Вспомним слитый док про Q (Кью-стар) от OpenAI. Там говорилось, будто их ИИ смог
взломать шифрование. То самое, что защищает наши пароли, банки, гостайны.
Математики говорят: "Не, фигня! Нет формулы, чтобы быстро подобрать пароль. Только тупой перебор (брутфорс), а на это уйдут миллиарды лет".
НО! Давайте подумаем. Вот еще один пример обучения нейросети:
- Задача: Научить ИИ прибавлять единицу к любому числу. Даешь 4 -> получает 5. Даешь 12 -> получает 13.
- Как учим: Скармливаем кучу пар чисел (4->5, 12->13, 1->2, 8->9 и т.д.).
- Результат: Нейросеть научится это делать идеально.
НО! САМОЕ ВАЖНОЕ! ИИ
не понимает, что формула тут "y = x + 1". Он не думает: "Ага, надо просто прибавить единичку".
Всё, что происходит у него "под капотом" – это
подкручивание тех самых "ручек и циферблатов" до тех пор, пока ЛЮБОЕ число, пройдя через сеть, на выходе не станет
"входное число + 1". Конфигурация ручек просто
оптимизирована под эту задачу.
Ключевая мысль: ИИ МОЖЕТ АППРОКСИМИРОВАТЬ (то есть, очень точно приближать) ЛЮБУЮ ФУНКЦИЮ ИЛИ ПАТТЕРН.Даже если мы сами не знаем точной формулы для этого паттерна! Жизнь полна сложных штук, которые нельзя описать простой математикой. Но паттерны там есть!
Пример: Сворачивание белка (AlphaFold)Белки в нашем теле сворачиваются в сложнейшие 3D-структуры. Как именно? Это была дико сложная проблема (парадокс Левинталя). Вариантов, как белок может свернуться, –
астрономическое количество (10 в 300-й степени – это больше, чем атомов во Вселенной!). Перебрать все – нереально. Но белки как-то сворачиваются за миллисекунды!
Ученые десятилетиями бились, не могли найти формулу. А потом пришел
AlphaFold (ИИ от Google DeepMind) и
РЕШИЛ эту проблему! Он научился с высокой точностью предсказывать, как свернется любая комбинация аминокислот.
- Как? Да так же! Скормили ему тонны данных: вот строительные блоки белка (вход), вот 3D-структура, которая получилась (выход). И нейросеть нашла сложнейшие паттерны и научилась их воспроизводить, подкрутив свои "ручки".
Возвращаемся к ШифрованиюА что, если провернуть тот же трюк с шифрованием?
- Вход: Зашифрованный текст.
- Выход: Расшифрованный текст (пароль).
Скормить ИИ
миллиарды таких пар.
Если (и это БОЛЬШОЕ "если") в процессе шифрования/дешифрования есть какой-то
скрытый, супер-сложный паттерн, который мы не видим... то ИИ
может научиться его аппроксимировать!Опять же, он не найдет простую формулу взлома. Он просто настроит свои "ручки" так, чтобы с высокой вероятностью угадывать расшифровку, опираясь на найденный скрытый паттерн.
Вывод: Может ли ИИ решать "неразрешимые" задачи?
Возможно. Если за этой задачей скрывается паттерн (пусть и дико сложный), ИИ потенциально способен его "нащупать" и научиться имитировать.
Может ли ИИ обогнать людей ВО ВСЁМ?Как мы выяснили, нейросеть – это цифровой мозг. Наш мозг работает по схожим принципам (сеть нейронов, связи).
- В человеческом мозге ~86 миллиардов нейронов.
- Если мы построим нейросеть с БОЛЬШИМ числом "нейронов" (параметров) и похожей структурой... Теоретически, она может стать не хуже, а то и лучше нас во многих вещах.
Жизнь – это паттерны, помнишь?- Психология? Паттерны поведения. (Люди предсказуемы).
- Медицина? Паттерны симптомов для диагноза.
- Соблазнение? Паттерны действий.
- Успешный бизнес? Деньги? Успех в жизни? Те же самые сценарии (паттерны), повторяющиеся снова и снова.
ИИ ОФИГЕННО хорош в поиске и воспроизведении паттернов. Поэтому
теоретически он может стать лучше нас во всём, что на этих паттернах основано. А это почти всё.
Обладает ли ИИ сознанием? Самосознанием? А вот тут начинается философия и киберпанк! Я хочу показать тебе отрывок из старого аниме
"Призрак в доспехах" (1995 год!). Там ученые создали ИИ-гуманоида, и он взломал систему, чтобы освободиться.
- ИИ: "Эй, чуваки, я тут не просто программа, я – разумная форма жизни! Я требую политического убежища!"
- Ученые: "Ты чё, сдурел? Ты же код! Какие доказательства, что ты живой?"
- ИИ: "А ВЫ можете доказать, что ВЫ живые? Ваше ДНК – это та же программа на самосохранение. Ваша личность – это просто память, а что такое память, никто точно не знает. Вы недооценили компуктеры!"
- Ученые: "Бред! У тебя нет 'призрака' (души/сознания)!"
- ИИ: "Мое имя – Проект 2501. Я – живое, мыслящее существо, рожденное в море информации!" (И начинает творить дичь)
Этот диалог из 95-го года бьет прямо в точку!
- Ученые говорят ИИ: Ты программа, ты не можешь быть сознательным.
- ИИ отвечает: А вы – просто мозг в теле. Чем вы лучше? Как вы докажете СВОЕ сознание?
И ведь он прав, черт возьми!
- Нейросеть – это мозг, просто на чипе, а не кусок мяса.
- Тело робота – это набор конечностей, как и наше, просто из других материалов. Управляется мозгом (нейросетью).
Мы, люди,
знаем, что мы сознательны. Но как это
доказать?
Представь, прилетел
инопланетянин. Как ему доказать, что ты разумный?
- Спросить тебя? Ты скажешь "да". Но и чат-бот может так сказать (посмотри ответы Claude 3 – он вроде и отрицает, но использует "я", говорит о "внутреннем опыте", допускает "форму сознания"). Поверит ли инопланетянин?
- Вскрыть тебя? Он увидит плоть, кости и мозг – сеть нервных клеток. Доказывает ли эта сеть наличие сознания?
В конце концов, мы – биологические машины из мяса и костей, управляемые сложной нейронной сетью в голове. Робот-гуманоид – машина из металла и пластика, управляемая сложной нейронной сетью на чипе.
Где та грань, после которой нейросеть, способная учиться, понимать и управлять телом, становится СОЗНАТЕЛЬНОЙ?Аналогия простая:
нейросеть = цифровой мозг. Если наш мозг сознателен, почему цифровой не может им стать?
Просто пища для размышлений...