«Умрёт каждый представитель человеческого рода и вся биологическая жизнь на Земле»: появилось предостережение о развитии ИИ

«Умрёт каждый представитель человеческого рода и вся биологическая жизнь на Земле»: появилось предостережение о развитии ИИ
«Умрёт каждый представитель человеческого рода и вся биологическая жизнь на Земле»: появилось предостережение о развитии ИИ

В конце марта около 2 тысяч человек подписали открытое письмо с призывом по меньшей мере на полгода остановить обучение нейросетей мощнее GPT-4. Инициативу поддержали Илон Маск, сооснователь Apple Стив Возняк, соучредитель Pinterest Эван Шарп, а также инженеры, учёные и исследователи.

По мнению подписавшихся, общество ещё не осознало до конца последствия стремительного развития ИИ-технологий, которые будут конкурировать с человеком и в перспективе могут серьёзно изменить «историю жизни на Земле». Поэтому, как считают авторы письма, людям стоит взять паузу и создать протоколы безопасности, чтобы разрабатываемые сейчас нейросети в будущем имели только положительные эффекты с управляемыми рисками и без угрозы «потерять контроль над цивилизацией».

От гигантов IT-индустрии слышать подобное удивительно. Однако похожей и даже более радикальной точки зрения придерживается Элиезер Юдковский — один из самых известных исследователей искусственного интеллекта, сооснователь Института Сингулярности по созданию ИИ, а также автор популярного романа-фанфика «Гарри Поттер и методы рационального мышления».

Журнал Time опубликовал колонку Юдковского в ответ на инициативу 2 тысяч подписантов. В ней исследователь предупредил, что проблема с искусственным интеллектом гораздо глубже и опаснее — потому что, развившись до нечеловеческого уровня, он просто сочтёт нас, людей, недостойными существования. «База» приводит полный текст Юдковского с незначительными сокращениями.

«Мы не готовы»

Я воздержался от подписи, потому что считаю, что письмо преуменьшает серьезность ситуации. Ключевым вопросом является не интеллект, конкурентоспособный по сравнению с человеческим, а то, что произойдет после того, как ИИ достигнет интеллекта, превосходящего человеческий. В настоящее время кажется возможным, что исследовательская лаборатория [создающая ИИ] переступит критические границы, не заметив этого.

Наиболее вероятным результатом создания сверхчеловечески умного ИИ в условиях, отдаленно напоминающих нынешние, будет гибель буквально всех людей на Земле. Не в смысле «возможно, есть какая-то отдаленная вероятность», а в смысле «это очевидная вещь, которая произойдет». Дело не в том, что вы в принципе не можете выжить, создав что-то гораздо более умное, чем вы. Дело в том, что это [изобретение ИИ] потребует точности, подготовки и новых научных открытий.

Без такой точности и подготовки наиболее вероятным результатом станет ИИ, который не будет делать то, что мы хотим, и его не будем заботить ни мы, ни разумная жизнь в целом. Такого рода забота — это то, что в принципе можно заложить в ИИ, но мы еще не готовы и не знаем, как это сделать.

Вероятным результатом столкновения человечества с противостоящим ему сверхчеловеческим интеллектом будет полный проигрыш. Тут уместны метафоры вроде «10-летний ребенок пытается играть в шахматы против Stockfish 15», «XI век пытается бороться с XXI» и «австралопитек пытается бороться с Homo sapiens».

Чтобы визуализировать враждебный сверхчеловеческий ИИ, не надо представлять себе неживого умного мыслителя, обитающего в Интернете и рассылающего злонамеренные электронные письма. Представьте себе целую инопланетную цивилизацию, мыслящую в миллионы раз быстрее человека и изначально ограниченную компьютерами в мире существ, которые, с её точки зрения, очень глупы и очень медлительны.

Достаточно интеллектуальный ИИ не будет долго сидеть в замкнутом пространстве компьютеров. В современном мире вы можете отправить строки ДНК по электронной почте в лаборатории, которые будут производить белки по запросу, что позволит ИИ, изначально ограниченному Интернетом, построить искусственные формы жизни или сразу перейти к постбиологическому молекулярному производству.

Если кто-то создаст слишком мощный ИИ в нынешних условиях, я ожидаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле.

Мы понятия не имеем, как определить, осознают ли системы ИИ сами себя, поскольку мы не знаем, как декодировать все, что происходит в гигантских непостижимых массивах [данных]. И поэтому мы можем в какой-то момент непреднамеренно создать цифровые разумы, которые действительно сознательны и должны иметь права, а не быть собственностью.

Я согласен с тем, что нынешние ИИ, вероятно, просто имитируют разговоры о самосознании из своих учебных данных. Но я отмечаю, что, несмотря на то, что у нас мало знаний о внутреннем устройстве этих систем, в действительности мы не знаем ничего.

Когда люди, не связанные с индустрией искусственного интеллекта, впервые слышат о риске исчезновения из-за искусственного общего интеллекта, их реакция такова: «Может быть, тогда нам не следует создавать ИИ». Услышав это, я почувствовал крошечный проблеск надежды, потому что это более простая, более разумная и, откровенно говоря, более здравая реакция, чем та, которую я слышал в течение последних 20 лет, когда пытался заставить кого-либо в отрасли отнестись к этому серьезно.

Вот что на самом деле нужно сделать:

Мораторий на новые крупные обучения должен быть бессрочным и всемирным. Не должно быть никаких исключений, в том числе для правительств или вооруженных сил. Отключите все большие GPU-кластеры (большие компьютерные фермы, где совершенствуются самые мощные ИИ). Отключите все крупные обучающие программы. Установить потолок вычислительной мощности, которую разрешено использовать для обучения системы ИИ, и в ближайшие годы снижайте его.

Немедленно заключите многонациональные соглашения, отслеживайте все проданные графические процессоры. Если разведка сообщает, что страна, не входящая в соглашение, строит GPU-кластер, бойтесь не столько нарушения моратория, сколько конфликта между странами. Будьте готовы уничтожить несанкционированный центр обработки данных авиаударом.

Постер публикации qutiqtriqhdiqqe eiqrkihxiqrqvls

Мнение ChatGPT по этому вопросу

Дайте понять, что всякий, кто говорит о гонке вооружений, — дурак. В международной дипломатии нужно четко заявить, что предотвращение сценариев вымирания от ИИ считается приоритетнее предотвращения полного ядерного обмена и что союзные ядерные страны готовы пойти на некоторый риск ядерного обмена, если это необходимо для снижения риска крупного обучения ИИ.

Мы не готовы. И мы не будем готов в обозримом будущем. Если мы продолжим это, все умрут, включая детей, которые этого не выбирали и не сделали ничего плохого.

Страница для печати  

Другие новости по теме:

Искусственный интеллект решил проблему, над которой ученые ломали головы 50 лет
В Израиле искусственный интеллект будет работать пляжным спасателем – CNN
МВД хочет вычислять внешность убийц по биоматериалу
Компания Google выгнала разработчика, который обнаружил сознание у искусственного интеллекта
Илон Маск презентовал человекоподобного робота Optimus
Институт будущего жизни предсказал, что "обезумевший искусственный интеллект" убьет человечество - Politico
Разговоры с умершими: южнокорейская компания нашла новое применение ИИ
ChatGPT и другие подобные нейросети могут заменить журналистов - гендиректор медиагруппы Axel Springer
«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4
Крёстный отец искусственного интеллекта заявил, что для защиты от преступников нужно регулирование ИИ
Искусственный интеллект стимулировал рост мировых фондовых рынков
Маск рассказал, что предлагал Apple купить Tesla

Комментарии:

comments powered by Disqus
19:40 Блогер Тамаев ударил подростка у "Москва-Сити" из-за фразы "Это моя машина"
19:33 От "Дихлофоса" к баночной монополии: как возник новый олигарх Алексей Сагал?
19:26 Китай и Беларусь начали совместные военные учения
19:23 В мэрии Москвы решили не допускать оппозиционных кандидатов на выборы в Мосгордуму
19:17 Потанинское «депо»: миллиарды на госимуществе
19:12 В Оренбурге родители выгуливали ребенка в клетке на колесах
Мы в телеграм. Подписывайтесь на канал с оперативными новостями
19:07 Махмудов пришел на Шерегеш
19:03 На станции Ховрино в Москве сошел с рельсов вагон грузового поезда
18:59 В Москве заочно арестовали Юлию Навальную
18:55 Ректор Балтийского федерального университета Федоров задержан за взятку
18:47 Скоростную железную дорогу из Москвы в Петербург построит друг Путина на деньги пенсионеров
18:43 Генерал Хандаев скончался: что будет с коррупционными расследованиями в Минобороны
18:37 Приморский школьник избил пьяного прохожего
18:30 Стали известны обстоятельства смерти бывшего прокурора Красногорска
17:28 После громкого покушения на Днепропетровщине силовики взялись за ОПГ "Кирпича"
17:18 В Москве работники водоканала проверяли каждый люк на дороге
17:11 Опубликованы подробности в деле казахстанской аферистки Лилии Аношиной
17:08 В Батайске сильный пожар охватил пятиэтажный жилой дом
17:01 На детскую больницу «Охматдет» в Киеве упала антиракета, - Дмитрий Песков
16:58 Челябинский депутат Госдумы Олег Колесников ранен в зоне "СВО"
16:55 Запущена «тёмная фабрика» Xiaomi: она может работать 24 часа в сутки без людей и выпускать по 1 смартфону в секунду
16:50 В доме бывшего депутата Госдумы Валерия Драганова в Красногорске прошли обыски
16:46 Россияне стали скупать перкуссионные массажеры, чтобы «тапать хомяка»
16:39 Покинувшая Россию Алла Пугачева регулярно звонит тяжелобольному артисту
16:37 Муцениеце дала сигнал о воссоединении с Прилучным после громкого развода
16:34 В окружении Тимура Иванова начались внезапные смерти
16:32 Обнальщик Костя Байкер получил 13 лет колонии
16:29 «Атомредметзолото» и «Уралхиммаш» идут за новым нацпроектом в Минпромторг РФ. Отраслевики просят ограничений конкуренции и гарантий спроса
16:28 Дорогое пальто и семейный бизнес: липецкий губернатор Артамонов идет на новый срок
16:26 Задержан ректор Балтийского федерального университета Александр Федоров
16:25 В долгах и без денег: как газовый мошенник Вячеслав Чухно проиграл Дачу Ашкенази
16:23 В Кыргызстане стремятся восстановить работу карт Мир
16:21 Российские олигархи получают миллиарды долларов дивидендов после роста военной экономики РФ
16:19 Скандал вокруг семьи Колокольцева и передача компроматов
16:17 Как военком и следователь сломали жизнь бизнесмена Котовича
16:15 Как мусорная свалка на Вашутинском шоссе стала источником нелегального дохода
16:11 Алла Пугачева прокомментировала в своем Instagram атаку на украинские города
16:09 Жительницу Москвы незнакомцы раздели на улице догола
16:02 Аферисты обманули преподавателя московского вуза на 2 миллиона рублей
15:57 Российские производители мяса стали чаще использовать запрещённую добавку