ТРИБУНА РУССКОЙ МЫСЛИ №25 ("Антиглобализм, постгуманизм, технократизм")
дополняя тему выпуска

История нейросетей: от мечты до революции

https://t.me/vistehno/4276

 

Когда-то идея создать «машину, похожую на мозг», звучала как фантастика. Сегодня нейросети распознают лица, переводят тексты, управляют роботами и пишут код. Как мы дошли до этого?

1)  Все началось… с нейрона на бумаге

1943 год. 

Два учёных — Уоррен МакКаллок и Уолтер Питтс — публикуют статью, где описывают математическую модель нейрона. Они показали: нейроны можно представить как простые логические элементы, способные передавать сигналы. 

Это была первая попытка описать работу мозга через математику.

Но… компьютеры тогда только зарождались, а про обучение моделей никто не думал.

 

2)  Появляется перцептрон — первая нейросеть

1958 год. 

Американский психолог Фрэнк Розенблатт создаёт перцептрон — устройство, которое могло «учиться» распознавать простые образы (например, различать круг и квадрат).

Перцептрон обучали на карточках с рисунками: показывали примеры, корректировали ошибки. Машина сама подбирала веса связей между нейронами, чтобы давать правильный ответ.

Это был первый шаг к обучаемым моделям, но… были ограничения.

 

3)  Застой: «нейросети не могут»

1969 год. 

Книга Марвина Мински и Сеймура Паперта «Перцептроны» разбила мечты: учёные доказали, что односвязный перцептрон не способен решать задачи, требующие нелинейных разделителей (например, XOR).

Многие поверили, что нейросети — тупиковая ветвь. 

Финансирование упало. Интерес угас.

 

4)  Второе дыхание: обратное распространение ошибки

1986 год. 

Джеффри Хинтон, Дэвид Румельхарт и Рональд Уильямс открывают метод backpropagation (обратного распространения ошибки).

Теперь нейросеть могла автоматически корректировать все свои слои, а не только первый. Это позволило строить глубокие нейросети и обучать их на сложных задачах.

Революция? Почти. Компьютеров всё ещё не хватало, чтобы обучать большие сети.

 

5)  Практическое применение: сверточные сети

1990-е. 

Янн Лекун создаёт LeNet — сверточную нейросеть (CNN), которая распознавала рукописные цифры на чеках. Это была первая успешная коммерческая нейросеть.

LeNet работала медленно, но точнее, чем любые предыдущие методы.

 

6)  Большой взрыв: глубокое обучение

2012 год. 

На конкурсе ImageNet сеть AlexNet (созданная студентами Хинтона — Крижевским и Суцкевером**) разгромила соперников, улучшив точность классификации изображений на **10% сразу.

Почему получилось? 

• Были большие данные (ImageNet — 1,2 млн изображений) 

• Были мощные GPU 

• Были методы dropout, ReLU и хорошее понимание backpropagation

С этого момента deep learning стал мейнстримом. 

Компании вроде Google, Facebook, Microsoft начали инвестировать миллиарды.

 

7)  Нейросети сегодня: GPT, Stable Diffusion, AlphaFold

Сейчас нейросети умеют:

• писать тексты (GPT) 

рисовать картины (Stable Diffusion, Midjourney) 

• предсказывать белковые структуры (AlphaFold) 

• водить машины (Tesla Autopilot)

Размер моделей растёт: от 10 нейронов в перцептроне — до 500 миллиардов параметров в GPT-4.

8)  Что дальше?

 

Мы прошли путь от искусственного нейрона — до машин, которые иногда ведут себя пугающе «человечно». 

И это — только начало.

Кто знает, где мы окажемся через 10 лет?

А нейросети продолжают учиться. 

И, возможно, скоро они напишут продолжение этой истории сами.



В оглавление ТРМ №25