Прогнозы развития AGI от Леопольда Ашенбреннера: революция в ИИ, инвестиции в триллионы долларов и грядущая гонка между США и Китаем. Узнайте, что нас ждет к 2027 году!

AGI 2027: будущее ИИ, о котором вам стоит узнать — взгляд от бывшего сотрудника OpenAI

Леопольд Ашенбреннер, бывший сотрудник OpenAI из команды Superalignment, в своем документе «Осведомленность о ситуации: Предстоящее десятилетие» делится прогнозами о будущем искусственного интеллекта (ИИ). Он предсказывает, что в ближайшие годы ИИ станет намного умнее и приведет к значительным изменениям в обществе и технологиях.

Основные идеи документа

I. От GPT-4 к AGI: Подсчет OOM (Orders of Magnitude)

Ашенбреннер утверждает, что Общий Искусственный Интеллект (AGI), сопоставимый с человеческим, появится к 2027 году. Прогресс в ИИ ускоряется за счет увеличения вычислительных мощностей и алгоритмических улучшений. С 2019 по 2023 год ИИ прошел путь от уровня дошкольника до уровня одаренного старшеклассника. Прогнозы указывают на то, что в ближайшие четыре года мы увидим системы, способные выполнять задачи на уровне ученых и инженеров.

II. От AGI к Суперинтеллекту: Интеллектуальный взрыв

После достижения AGI прогресс ускорится. ИИ-исследователи автоматизируют ИИ-исследования, что приведет к быстрому переходу от человеческого уровня интеллекта к сверхинтеллекту. Этот период будет нестабильным и опасным, требуя внимательного контроля и новых методов согласования.

IIIa. Гонка за кластером стоимостью в триллион долларов

К 2028 году инвесторы вложат триллионы долларов в вычислительные кластеры для ИИ, требующие огромных энергоресурсов. К концу десятилетия такие кластеры будут потреблять до 20% всей электроэнергии США. Строительство таких мощных кластеров станет ключевым фактором в гонке за превосходство в области ИИ.

IIIb. Заблокированные лаборатории: безопасность для AGI

Ашенбреннер подчеркивает важность обеспечения безопасности ИИ-лабораторий, чтобы предотвратить утечки критически важной информации. Он предлагает изолировать дата-центры и усилить меры безопасности, сравнимые с военными базами.

IIIc. Superalignment

Основная проблема создания AGI — согласование суперинтеллекта. Текущие методы, такие как RLHF (обучение с обратной связью от человека), не будут работать для сверхчеловеческих систем. Необходимо разработать новые подходы к контролю ИИ.

IIId. Свободный мир должен восторжествовать

Сверхразум даст военное преимущество, подобное ядерному оружию. Важно, чтобы демократические страны выиграли эту гонку, иначе авторитарные режимы могут использовать сверхразум для мирового господства.

Заключение

Ашенбреннер призывает к серьезному отношению к перспективе появления суперинтеллекта. Необходимо обеспечить надежный контроль ИИ на каждом этапе, чтобы избежать катастрофических ошибок и обеспечить стабильное развитие технологий.

Отправить комментарий

You May Have Missed