Шрифт:
Интервал:
Закладка:
422
Скорее всего, люди и правда некоторое время будут эффективнее справляться с выполнением стандартных физических задач при меньших издержках, и потому создание роботов будет стоять на втором месте.
423
Даже если очистить 99 % дисков, все равно сохранятся десятки копий, которые готовы будут размножиться на новых производимых компьютерах.
424
Известно о нескольких случаях, когда преступники захватывали более миллиона компьютеров. Самый известный ботнет – Bredolab, куда входило более 30 млн компьютеров. Он был создан хакерской группой, которая зарабатывала на том, чтобы предоставлять взломанные компьютеры в аренду другим преступным организациям. На пике ботнет рассылал более 3 млрд зараженных электронных писем в день.
425
Интересно оценить, какую власть они сосредоточили в своих руках. В 1942 году страны “оси” (за исключением Японии) контролировали около 1,3 трлн долларов ВВП (в долларах 1990 года) (Harrison, 1998), что соответствовало примерно 30 % мирового ВВП (Maddison, 2010).
СССР занимал территорию площадью 22,4 млн квадратных километров, то есть 16 % суши на планете. Население Монгольской империи в период ее расцвета, когда у власти пребывал внук Чингисхана Хубилай, составляло 100 млн человек (Lee, 2009), что соответствовало примерно 25 % населения Земли (Roser et al., 2019).
Учитывая, в какой степени эти страны были ориентированы на войну, вероятно, на их долю приходилось даже больше военной мощи, чем показывают эти цифры, но дать объективную оценку этому сложнее.
426
Хороший исход мог бы наступить, например, если бы ИИ-система сама по себе стала достойной преемницей человечества, а создаваемое ею прекрасное будущее было бы именно таким, как надеялось человечество. Порой это называют причиной не беспокоиться о рисках неконтролируемого ИИ.
Хотя я считаю, что в этой идее что то есть, это вовсе не панацея. Как только мы всерьез воспримем идею, что в лучшем будущем, возможно, нам найдется замена, окажется, что не все такие замены одинаково хороши. И наделение какой либо группы программистов правом в одностороннем порядке запускать такую массовую замену человечества будет означать необходимость пройти через страшный процесс принятия решения, как передать эстафету. Более того, если мы полагаем, что ИИ-система сама может быть носителем моральных ценностей, возникает серьезная вероятность того, что такая система допустит возникновение мира с отрицательной ценностью или иным образом породит его, особенно если она будет разработана человечеством в период, когда нам столь мало известно о природе сознательного опыта.
427
Metz (2018).
428
Стюарт Рассел (2015): “Как пояснили Стив Омохундро, Ник Бустрём и другие ученые, в комбинации с растущими способностями систем принятия решений несовпадение ценностей может привести к проблемам – возможно, даже к таким проблемам, которые вызовут гибель вида, если машины окажутся способнее людей. Кое-кто утверждает, что в грядущие столетия риск для человечества немыслим, но эти люди, вероятно, забывают, что с момента, когда Резерфорд уверенно заявил о невозможности извлечения атомной энергии, до изобретения Силардом индуцированной нейронами ядерной цепной реакции прошло менее суток”.
Центр совместимого с человеком ИИ, основанный Расселом, стал одной из ведущих исследовательских организаций, где изучаются вопросы контроля ИИ. Книга Рассела “Совместимость” (2019) – революционное и прекрасно написанное введение в проблему создания безопасного общего искусственного интеллекта.
429
Шейн Легг, один из основателей и старший исследователь компании DeepMind, руководит в ней исследованиями безопасности ИИ. Когда в ходе интервью его спросили, какова вероятность вымирания человечества в течение года после разработки ОИИ, он сказал (Legg & Kruel, 2011): “Не знаю. Может, 5 %, может, 50 %. Вряд ли кто то в состоянии дать надежную оценку… На мой взгляд, это главный риск текущего столетия, а на втором месте с небольшим отрывом стоит появление искусственно созданного биологического патогена (хотя об этом я мало что знаю)”.
430
Алан Тьюринг (1951), один из изобретателей компьютера, стоявший у истоков исследования искусственного интеллекта: «…кажется вероятным, что машинное мышление, появившись, быстро превзойдет наши скромные способности. Вопроса о смерти машин даже не встанет, поскольку они смогут общаться друг с другом, чтобы оттачивать свой ум. Следовательно, на каком то этапе нам стоит ожидать, что машины захватят контроль, примерно как в романе Сэмюела Батлера “Едгин”».
Этот роман Сэмюела Батлера (1872) был написан на основе его эссе “Дарвин среди машин” (Butler, 1863), в котором, пожалуй, впервые рассматривается экзистенциальный риск, связанный с разумными машинами.
Опасениям Тьюринга вторил и его коллега-криптограф, видный статистик и пионер компьютерных наук И. Дж. Гуд (1959): “Как только будет создана достаточно хорошая машина… ее можно будет применить для создания еще более совершенной машины. На этом этапе явно случится «взрыв», все задачи науки и технологии будут переданы машинам, а людям больше не придется работать. Это может привести либо к утопии, либо к уничтожению рода человеческого в зависимости от того, как машины будут подходить к проблеме. Важно задать им цель служить людям”.
Пионер ИИ Норберт Винер рассматривал вопрос о том, как людям удержать контроль над продвинутыми ИИ-системами (Wiener, 1960): “Хотя теоретически машины подвергаются критике со стороны человека, эффект такой критики может сказаться лишь спустя значительное время после того, как потеряет свою актуальность. Чтобы эффективно предотвращать катастрофические последствия, наши знания о рукотворных машинах должны в целом расти параллельно повышению производительности машин. Из-за собственной нерасторопности мы можем упустить контроль над своими машинами”.
Марвин Минский (1984) предупреждал о рисках создания мощных ИИ-прислужников, которые могут неверно трактовать наши истинные цели: “Главный риск связан с тем, что всегда опасно пытаться снять с себя ответственность за осмысление того, как именно будут исполнены наши желания… чем больше возможных способов мы отдаем на откуп этим прислужникам, тем выше становится риск ошибок и несчастных случаев. Если мы делегируем эту ответственность, то можем не понять, пока не станет слишком поздно поворачивать назад, что наши цели трактуются неверно, возможно даже со злым умыслом. Мы видим это в таких классических историях о судьбе, как «Фауст», «Ученик чародея» и «Обезьянья лапка» У. У. Джекобса”.
Пионер обучения с подкреплением и соавтор самого популярного учебника по этому предмету Ричард Саттон утверждает, что “несомненно, есть немалая вероятность, что в течение ожидаемого срока нашей жизни” будет создан ИИ человеческого уровня, а затем добавляет, что агенты ИИ “не будут поддаваться нашему контролю” и что “если мы создадим сверхразумных рабов,
- Экзистенциализм. Возраст зрелости - Петр Владимирович Рябов - Науки: разное
- Автоутопия. Будущее машин - Джон Бентли - Прочая научная литература / Науки: разное
- Информационные технологии и лингвистика XXI века - Алла Викторовна Гуслякова - Детская образовательная литература / Науки: разное / Языкознание
- Всё переплетено. Как искусство и философия делают нас такими, какие мы есть - Альва Ноэ - Прочая научная литература / Науки: разное
- Искусственный интеллект отвечает на величайшие вопросы человечества. Что делает нас людьми? - Жасмин Ван - Публицистика / Науки: разное
- Производство счастья - Николай Викторович Бодягин - Периодические издания / Науки: разное
- По ту сторону добра и зла - Фридрих Вильгельм Ницше - Науки: разное
- Человеческие качества - Аурелио Печчеи - Науки: разное
- Invisibilis vis - Максим Марченко - Публицистика / Науки: разное
- Сборник лучших статей по китайской астрологии группы ВК «ЗАМЕТКИ ПО БА ЦЗЫ» - Алекса Грин - Науки: разное / Эзотерика