---------------------------------------------------------------
 Origin: http://mikeai.i-connect.ru/russian/superint.html
---------------------------------------------------------------

Английская версия | English Version

Сколько осталось до суперинтеллекта?

Версия 2.0
(17.12.1997)

Ник Бостром
Факультет философии, логики и научной методологии
Лондонская школа экономики
n.bostrom@lse.ac.uk
http://www.hedweb.com/nickb

Перевод на русский язык Михаила Свердлова,
mino@mail.ru
http://mikeai.i-connect.com


Аннотация

Определение термина "суперинтеллект"

Под "суперинтеллектом" мы понимаем интеллект, превосходящий лучших представителей человеческого разума практически в любой области, включая научное творчество, здравый смысл и социальные навыки. Данное определение оставляет открытым вопрос, каким образом суперинтеллект будет осуществлён: это может быть цифровой компьютер, совокупность взаимосвязанных компьютеров, культивированная мозговая ткань, или нечто другое.

Закон Мура и сегодняшние суперкомпьютеры

Закон Мура утверждает, что скорость процессоров удваивается каждые восемнадцать месяцев [A]. Раньше удвоение скорости происходило каждые два года, но около пятнадцати лет назад ситуация изменилась. Последние данные показывают, что период удвоения уже составляет 12 месяцев. При таком темпе вычислительная мощность возрастёт за десять лет тысячекратно.

Закон Мура - это то, на что опираются производители микросхем, когда решают, какие чипы разрабатывать, чтобы сохранить конкурентоспособность. Если оценить вычислительные способности мозга человека и экстраполировать закон Мура (можно ли это делать, будет обсуждаться ниже), мы сможем вычислить, сколько потребуется времени, чтобы компьютеры по аппаратной мощности достигли человеческого интеллекта.

Сегодня (на декабрь 1997 года) самый быстрый суперкомпьютер выполняет 1,5 триллиона операций в секунду (1,5 Tops). Существует проект, имеющий целью получить производительность в 10 Tops с помощью Интернета. Сто тысяч добровольцев установят на свои компьютеры хранитель экрана, который позволит центральному компьютеру делегировать всем остальным некоторые вычислительные задания. Этот (т.н. метакомпьютерный) подход наилучшим образом работает для задач, легко поддающихся параллелизации, как, например, исчерпывающий поиск для взлома кода. В будущем, с каналами большей пропускной способности (например, оптоволоконными), широкомасштабный метакомпьютинг будет работать ещё лучше, чем сегодня. Моделирование мозга по своей природе относительно легко поддаётся параллелизации, поэтому огромная распределённая в Интернете имитация мозга могла бы стать в будущем реальной альтернативой. Однако для текущих целей мы пренебрежём этой возможностью, а будем считать машину, выполняющую 1,5 Tops, лучшим, чем мы сегодня располагаем. Потенциал метакомпьютинга может быть введён в наш прогноз в качестве дополнительного основания думать, что доступная вычислительная мощность будет продолжать расти как предсказывает закон Мура.

Даже без какого-либо улучшения технологии мы можем получить несколько лучший результат, к примеру, удвоив число чипов в одном корпусе. Правительством США был заказан компьютер мощностью 3 Tops для разработки и тестирования стратегического ядерного оружия. Однако, учитывая, что стоимость этой машины составляет 94 млн. долларов, очевидно, что даже крупное дополнительное финансирование позволило бы в коротком промежутке времени добиться лишь весьма скромного приращения вычислительных мощностей.

Насколько вески основания полагать, что закон Мура будет продолжать выполняться в будущем? Очевидно, рано или поздно он должен перестать действовать. Существуют физические ограничения на плотность, с которой материя может хранить и обрабатывать информацию. Ограничение Бекенштейна даёт верхний предел количества информации, которая может содержаться в пределах заданного объёма при использовании заданного количества энергии. Поскольку колонизация космоса дала бы максимум полиномиальный (~t^3) темп расширения (учитывая, что максимальная скорость ограничена скоростью света), экспоненциальное увеличение доступной вычислительной мощности не может продолжаться бесконечно, если только не будут открыты новые законы физики.

На мой взгляд закон Мура потеряет доверие к себе задолго до того, как мы достигнем абсолютных физических пределов. Вероятно, он не имеет большой предсказательной силы далее, чем в пределах следующих пятнадцати лет. Нельзя сказать, что скорость процессоров не будет продолжать удваиваться каждые двенадцать или восемнадцать месяцев после 2012 года; мы лишь не можем использовать закон Мура, чтобы это утверждать. Если же мы хотим делать предсказания далее этой даты, мы будем должны посмотреть непосредственно, что возможно физически. Также, предположительно, это будет означать, что нам придётся иметь дело с интервалом большей неопределённости на оси времени. Изучение физических возможностей в лучшем случае говорит нам, что случится, если люди захотят, чтобы это случилось; но даже если предположить, что потребность будет, это не даст нам информацию, когда это случится.

Около 2007 года мы достигнем физического предела сегодняшней кремниевой технологии. Однако закон Мура до сих пор уже пережил несколько смен технологических поколений, от реле к вакуумным лампам, далее к транзисторам, интегральным схемам, и, наконец, к сверхбольшим интегральным схемам (СБИС). Не существует причин полагать, что сегодняшний дизайн СБИС, двухмерная кремниевая вафля, станет завершающим словом в технологии чипов. Уже предложены и разрабатываются несколько способов преодолеть ограничения сегодняшней технологии.

В ближайшем будущем, к примеру, может оказаться возможным использовать фазовый сдвиг шаблона, чтобы довести минимальное расстояние между двумя рядами элементов на микрочипе вплоть до 0,13 микрометра, даже при сохранении видимого диапазона излучения при литографии. За пределами же видимого диапазона мы могли бы использовать рентгеновские лучи или по меньшей мере ультрафиолет на пределе диапазона (т.н. "мягкие рентгеновские лучи") для достижения ещё большей точности. Если это не удастся, можно было бы использовать электронный луч, хотя это метод производства будет медленным, а, значит, дорогим. Компромисс мог бы заключаться в нанесении электронным лучом части входов и выходов, где скорость имеет решающее значение, и использовании видимого спектра или мягкого рентгена для записи остальных элементов на чип.

Также мы можем увеличить мощность чипа, используя больше слоёв, - техника, которую лишь недавно начали осваивать, а также делая более толстые вафли (до 300 мм - не должно быть проблемой). Можно изготавливать существенно большие по размерам чипы при наличии некоторого допуска на ошибки. Допуск на ошибки мог бы быть получен при использовании эволюционирующих кристаллов (DeGaris).

Также возможно отодвинуть физические ограничения на размеры транзисторов, если перейти на новые материалы, такие как Gallium Arsenide. Сейчас разрабатываются квантовые транзисторы, обещающие новое слово в технологии чипов. Им будет присуща высокая скорость переключения или низкое потребление энергии.

Благодаря высокопараллельной природе вычислений, подобных производимым мозгом, также должно быть возможным использование высокопараллельной архитектуры. В этом случае будет достаточным произвести значительное количество средних по скорости процессоров, и далее связать их в локальные сети соединениями с высокой пропускной способностью. Также мы уже упомянули возможность метакомпьютинга. [B]

Всё это - то, что разрабатывается сегодня. Эти технологии накачиваются крупным финансированием [C]. И, хотя затруднения могут показаться весьма серьёзными человеку, работающему в данной области и постоянно сосредоточенному на каждодневных проблемах, справедливо будет сказать, что среди экспертов широко распространён оптимизм относительно перспектив, что в обозримом будущем мощность компьютеров будет продолжать расти.

Требования к аппаратным средствам

Человеческий мозг содержит примерно 100 миллиардов нейронов. Каждый нейрон имеет около 5 тысяч синапсов, а сигналы проходят через эти синапсы с частотой около 100 Гц. Каждый сигнал, допустим, содержит 5 бит. Это соответствует 10^17 ops.[D]

Реальное значение не может быть намного выше этого, хотя может быть и значительно ниже. Похоже, что мозг содержит большую избыточность; часто требуется синхронное возбуждение больших групп нейронов, чтобы сигнал не утонул в фоновом шуме. Альтернативный способ вычисления общей производительности - рассмотреть некоторую часть коры головного мозга, выполняющую функции, которые мы умеем воспроизводить на цифровых компьютерах. Мы вычисляем среднюю производительность одного нейрона в области коры мозга, эквивалентную вычислениям с помощью компьютера, и умножаем это значение на количество нейронов в мозгу. Ганс Моравек произвёл эти вычисления, используя данные о сетчатке глаза человека (Moravec 1997), и сравнил их с известными требованиями к компьютерным ресурсам в задаче распознавания образов в машинном зрении. Он получил значение 10^14 для человеческого мозга в целом. Это на три порядка меньше, чем верхняя граница, вычисленная в предположении, что избыточности нет.

Трудно найти основания, заставляющие предположить, что избыточность в сетчатке больше, чем в коре. Если и есть отличие в избыточности, то скорее наоборот, в сетчатке она будет меньше: распознавание образов - задача более низкого уровня по сравнению с высшими когнитивными процессами, а значит, по-видимому, более оптимизирована (эволюцией и индивидуальным обучением).

Если необходимо 100 Tops, чтобы имитировать человеческий мозг, то требуемая вычислительная мощность будет достигнута где-то между 2004 и 2008 годом в зависимости от того, взять время удвоения 12 или 18 месяцев. Это будут лучшие экспериментальные суперкомпьютеры в мире, не обязательно компьютеры, доступные для разработчиков ИИ. В зависимости от финансирования, может пройти ещё до десятка лет, прежде чем обычные исследователи, экспериментирующие с ИИ, получат доступ к машинам с такой производительностью.

Это если мы берём в качестве модели имитацию сетчатки. В настоящее время, однако, известно недостаточно о коре больших полушарий, чтобы воспроизвести их таким оптимизированным образом. Но к 2004-2008 гг. эти знания могут появиться (как мы увидим в следующем параграфе). Что требуется, чтобы получить ИИ человеческого уровня при этой минимальной мощности оборудования - это умение моделировать 1000-нейронные совокупности высокоэффективным способом.

Крайний вариант, на который мы опирались в оценке верхней границы - моделирование каждого нейрона отдельно. Количество тактов, которое нейрологи могут потратить на моделирование процессов внутри единственного нейрона - не ограничено. Но это так, поскольку их цель - детальное моделирование химических и электродинамических процессов в нервной клетке, а не просто выполнение минимальных вычислений, которые требуются для повторения свойств их функции срабатывания, необходимых в общем функционировании нейронной сети. Неизвестно, насколько большая часть этих деталей избыточна и несущественна, и как много из них должно быть сохранено, чтобы модель воспроизводила свойства сети как целого. Однако, по крайней мере на взгляд автора, много шансов в пользу того, что узлы сети могут быть сильно упрощены и заменены простыми стандартизированными элементами. Представляется совершенно реальным получить разумную нейронную сеть с самыми разнообразными выходными функциями нейронов и временем задержки.

Однако выглядит вполне реалистично, что если мы будем уметь воспроизводить идеализированный нейрон и знать достаточно о синаптической структуре мозга, мы сможем составить искусственные нейроны вместе так, чтобы это функционально отражало происходящее в мозгу. Далее мы также сможем заменить целые 1000-нейронные модули на что-то, для моделирования чего требуется меньше вычислительной мощности, чем в случае моделирования каждого нейрона в модуле по отдельности. Мы вполне могли бы дойти вплоть до 1000 инструкций на нейрон в секунду, как это вытекает из оценки, сделанной Моравеком (10^14 ops / 10^11 нейронов = 1000 операций в секунду на нейрон). Но кроме случая, когда мы будем способны построить эти модули раньше, чем мозг целиком, такая оптимизация будет возможна только после того, как уже будет разработан ИИ, эквивалентный человеку.

Если взять верхнюю границу вычислительной мощности, нужной для моделирования человеческого мозга, т.е. предположить, что имеется достаточно ресурсов для имитирования каждого нейрона индивидуально (10^17 ops), закон Мура говорит, что нам придётся подождать примерно до 2015 или 2024 года (при периоде удвоения 12 или 18 месяцев соответственно) прежде чем будут в наличии суперкомпьютеры с требуемой производительностью. Но если к тому времени мы будем уметь делать моделирование на уровне индивидуальных нейронов, предположительно, мы также найдём по меньшей мере некоторые способы оптимизации, поэтому вероятно мы могли бы несколько скорректировать эти верхние границы вниз.

Пока я говорил только о скорости процессора, но чтобы иметь производительность человеческого мозга, компьютеры также должны иметь большой объём памяти. На протяжении всей истории компьютеров, отношение между памятью и скоростью оставалось более или менее постоянным: 1 байт/ops. Так как сигнал передаётся вдоль синапса в среднем с частотой около 100 Гц, а его запоминающая способность, вероятно, менее 100 байт (1 байт выглядит более правдоподобной оценкой), похоже, скорость в большей степени, нежели память была бы узким местом в моделировании мозга на нейронном уровне. (Если же предположить, что при моделировании мы достигнем тысячекратного превосходства в скорости над реальным мозгом, как это вытекает из оценки Моравека, тогда требования к скорости могут уменьшиться. Возможно, они могли бы быть на один порядок меньше требований к памяти. Но если путём моделирования групп из 1000 нейронов мы сможем оптимизировать на три порядка требования к скорости, вероятно, также мы сможем сократить по крайней мере на один порядок и требования к памяти. Таким образом трудность создания достаточной памяти может быть значительно меньше, и почти наверняка не значительно больше, чем сложность создания достаточно быстрого процессора. Следовательно, мы можем сфокусировать наше внимание на скорости как на решающем параметре в вопросе аппаратных средств.)

В данной статье не обсуждается возможность, что квантовые явления непредвиденно вторгаются в процесс человеческого познания. Хамерофф и Пенроуз, а также некоторые другие предполагают, что в микротрубках могут существовать когерентные квантовые состояния, и мозг использует эти явления для решения сложных высокоуровневых познавательных задач. Мнение автора - это малоправдоподобно. Мы не будем здесь рассматривать аргументы за и против; просто в этой статье будет предполагаться, что квантовые феномены в моделировании мозга высокого уровня функционально несущественны.

В заключение можно сказать, что мощность аппаратных средств для эквивалентного человеку ИИ вероятно будет иметься до конца первой четверти следующего столетия, и даже может быть получена уже в 2004 году. Соответствующая мощность будет доступна ведущим лабораториям по разработке ИИ в течение десяти лет после этого (или раньше, если потенциал ИИ человеческого уровня будет к тому времени оценен лучше финансирующими организациями).

Программное обеспечение, создаваемое "снизу-вверх"

Кроме аппаратного суперинтеллект требует программного обеспечения. Существует несколько подходов к этой проблеме, различающихся по степени использования принципа "программирование сверху вниз". В одном предельном случае - это системы подобные CYC, которая представляет собой совокупность очень большой подобной энциклопедии базы знаний и машин по выведению следствий. Её наполняет фактами, правилами "большого пальца", эвристиками и другими человеческими знаниями команда операторов и экспертов в течение более чем десятка лет. Хотя системы подобные CYC могут быть хороши для определённых практических задач, едва ли это подход, способный убедить скептиков ИИ, что суперинтеллект может стать реальностью в обозримом будущем. Нам следует подумать о парадигмах, в которых требуется меньше ввода информации человеком, т.е. в большей степени использующих методы программирования "снизу вверх".

При достаточных аппаратных возможностях и соответствующем способе программирования мы бы могли заставить машины учиться так же, как это делают дети, т.е. взаимодействуя с взрослыми человеческими индивидами и другими объектами в их окружении. Существуют хорошо известные методы, такие как алгоритм обратного распространения погрешности (Backpropagation algorithm), которые могут давать хорошие результаты во многих небольших приложениях, включающих многослойные нейронные сети. К сожалению, этот алгоритм плохо масштабируется. Правило обучения Геббиана, напротив, прекрасно масштабируется (оно масштабируется линейно, т.к. каждое обновление веса включает рассмотрение активности лишь двух узлов, вне зависимости от размера сети). Известно, что оно - основной принцип обучения в мозгу. Похоже, однако, что правило Геббиана - не единственный принцип обучения, действующий в мозгу. Также возможно необходимо будет принять во внимание, к примеру, обучение "стимулированное вознаграждением" (Morillo 1992) и другие обучающие принципы, которые ещё предстоит открыть. Кроме того, не известно, каким образом Геббиановское обучение в чистом виде позволило бы мозгу хранить структурированные представления в долговременной памяти, хотя несколько механизмов предложено (Bostrom 1996).

Кроме подходящих правил обучения (и достаточно мощных аппаратных средств) создание суперинтеллекта путём имитации функционирования человеческого мозга потребует ещё две вещи: наличие адекватной начальной архитектуры и обеспечение богатого потока сенсорных входных сигналов.

Второе указанное условие легко обеспечивается даже существующей технологией. Используя видеокамеры, микрофоны и тактильные сенсоры, возможно обеспечить устойчивый поток информации реального мира в искусственную нейронную сеть. Элемент интерактивности может быть осуществлён путём присоединения к системе манипуляторов и динамиков.

Разработка адекватной начальной структуры сети ставит более серьёзную задачу. Чтобы получить правильную архитектуру коры мозга, может оказаться необходимым написать значительный объём кода вручную. В биологических организмах мозг не появляется при рождении как гомогенная чистая доска; он имеет начальную структуру, запрограммированную генетически. На сегодняшний день нейрология не способна указать точно, какова эта структура, и какую часть от неё понадобится сохранить в модели, чтобы она в конечном счёте соответствовала познавательным способностям взрослого человека. Одна из неожиданных трудностей на пути создания ИИ человеческого уровня по принципу нейронных сетей может появиться, если окажется, что человеческий мозг опирается на колоссальное количество генетически установленных связей, и поэтому каждая познавательная функция зависит от уникальной и крайне запутанной врождённой архитектуры, порождённой тысячелетиями эволюционного процесса обучения нашего биологического вида.

Может ли оказаться так? Существует по крайней мере три общих соображения, свидетельствующие об обратном. Здесь нам необходимо познакомиться с очень коротким обзором этих соображений. Для более глубокого рассмотрения вопроса читатель может обратиться к Phillips & Singer (1996).

Во-первых, примем во внимание пластичность коры полушарий, особенно у младенцев. Известно, что повреждения коры, даже значительные, часто могут компенсироваться, если случаются в раннем возрасте. Другие корковые области берут на себя функции, которые в обычном случае развились бы в разрушенном участке. Например, в одном исследовании чувствительность к характеристикам зрительных образов у новорождённых хорьков развивалась в слуховой коре после того как нормальный канал слухового входа в этом участке мозга заменили на визуальные проекции (Sur et al. 1988). Подобным образом было показано, что визуальная кора может брать на себя и функции, обычно выполняемые сенсомоторным участком мозга (Schlaggar & O'Leary 1991). Недавний эксперимент (Cohen et al. 1997) показал, что люди, ослепшие в раннем возрасте, могут использовать визуальную кору мозга для обработки тактильных ощущений при чтении с помощью азбуки Брайля.

Правда, существуют некоторые более примитивные области мозга, чьи функции не могут быть взяты на себя другим участком. Например, люди, у которых удалён гиппокампус, теряют способность запоминать новые эпизоды и семантические конструкции. Но кора полушарий имеет тенденцию быть высоко пластичной; это - то место, где осуществляется обработка наиболее высокого уровня, делающая нас интеллектуально выше животных. Было бы интересно исследовать более подробно, до какой степени это остаётся верным для всей коры полушарий. Существуют ли такие маленькие отделы коры мозга, что если их удалить при рождении, субъект никогда не обретёт определённых высших способностей, даже в ограниченной степени?

Второе соображение, возможно, свидетельствующее, что врождённая архитектурная дифференциация играет относительно малую роль в общем функционировании зрелого мозга: насколько известно, архитектура коры полушарий человека, особенно младенцев, удивительно гомогенна для различных участков мозга, и даже гомогенна у различных биологических видов:

Третье соображение - эволюционный аргумент. Рост коры полушарий, который позволил Homo Sapiens интеллектуально обогнать других животных, занял относительно короткий период времени. Это значит, что эволюционное обучение не могло внедрить очень много информации в эти относительно новые корковые структуры, дающие нам интеллектуальное преимущество. Это дополнительное развитие коры скорее стало результатом изменений в ограниченном числе генов, регулирующих ограниченное число параметров коры.

Эти три соображения подтверждают точку зрения, что количество нейрологической информации, необходимой для реализации подхода "снизу-вверх", довольно ограниченно. (Ни одно из этих соображений не является аргументом против того, что мозг взрослого человека состоит из модулей. Они только показывают, что значительная часть информации, которая появляется в этих модулях, скорее проистекает из самоорганизации и чувственного восприятия, чем из чрезвычайно сложной генетической таблицы поиска.)

Необходимо дальнейшее продвижение в нейрологии, прежде чем мы будем способны построить ИИ человеческого уровня (или хотя бы выше животного уровня) исключительно средствами этого подхода "снизу-вверх". Тогда как нейрология действительно резко продвинулась вперёд за последние годы, трудно оценить, сколько времени пройдёт, прежде чем будет достаточно известно об устройстве мозга и его алгоритмах обучения, чтобы оказалось возможным реализовать их на компьютерах достаточной вычислительной мощности. Грубое предположение: что-то около пятнадцати лет. Это не предсказание о том, как близко мы находимся к полному пониманию всех важных явлений в мозгу. Эта оценка относится к промежутку, за который, можно было бы ожидать, мы будем знать достаточно о базовых принципах работы мозга, чтобы быть в состоянии воплотить эти вычислительные принципы на компьютере, не обязательно моделируя мозг хоть сколько-нибудь биологически реалистичным образом.

Некоторым может показаться, что эта оценка недооценивает трудности, и возможно это так. Но давайте посмотрим, сколько произошло в последние пятнадцать лет. До 1982 года такая дисциплина как компьютерная нейрология едва ли существовала. А будущий прогресс будет идти не только потому что исследования сегодняшним инструментарием будут приводить к новым значительным находкам, но и потому что станут доступны новые инструменты для экспериментов и новые методы. Широкомасштабная многоэлектродная запись должна стать возможной в ближайшем будущем. Разрабатывается прямой интерфейс между мозгом и чипом. Для нейрологов становятся доступны более мощные аппаратные средства для выполнения моделирования с большим объёмом вычислений. Нейрофармакологи разрабатывают препараты с более высокой избирательностью, позволяя исследователям выборочно воздействовать на определённый подтип рецепторов. Существующие техники сканирования улучшаются и разрабатываются новые. Этот список может быть продолжен. Все эти инновации дадут нейрологам новые очень мощные инструменты, которые будут содействовать их исследованиям.

В этом разделе обсуждалась проблема программного обеспечения. Были высказаны аргументы в пользу того, что она может быть решена подходом "снизу-вверх" с использованием существующего оборудования для обеспечения каналов входа и выхода, а также при продолжении изучения человеческого мозга, с целью выяснить, какие обучающие алгоритмы он использует и какова начальная нейронная структура новорождённых младенцев. Учитывая, какими огромными шагами двигается компьютерная нейрология в последнее десятилетие, и какие инструменты для экспериментов находятся в процессе разработки, кажется разумным предположить, что требуемые нейрологические знания могут быть получены в течение десяти или пятнадцати лет, т.е. до 2012 года.

Почему бывшие неудачи с ИИ - не аргумент против его успеха в будущем

В семидесятые и восьмидесятые годы в области ИИ был застой, т.к. преувеличенные ожидания дней зарождения ИИ не стали реальностью, и прогресс почти остановился. Урок, который нужно из этого факта извлечь - не то, что ИИ мёртв и машины с суперинтеллектом никогда не будут построены. Он лишь показывает, что ИИ более сложная вещь, чем некоторые из первых пионеров могли подумать, но это ни коим образом не говорит о том, что ИИ навсегда останется неосуществимым.

В ретроспективе мы видим, что на той стадии проект ИИ принципиально не мог достичь успеха. Просто аппаратные средства не были достаточно мощными. Похоже, для выполнения задач человеческого уровня требуется по меньшей мере 100 Tops, и даже может потребоваться 10^17 ops. Компьютеры же семидесятых имели вычислительную мощность, сравнимую с насекомыми. Они и достигали примерно уровня интеллекта насекомых. Сейчас же, напротив, мы можем предвидеть появление аппаратных средств с производительностью человеческого уровня, поэтому причина прошлого неуспеха ИИ перестаёт действовать.

Существует также объяснение относительного отсутствия заметного прогресса на протяжении этого периода. Как отмечает Ганс Моравек:

В общем, похоже, обнаруживается вновь обретённый оптимизм и воодушевление среди людей, работающих над ИИ, особенно среди тех, кто работает в подходе "снизу вверх", таких как исследователи, занимающихся генетическими алгоритмами, нейроморфным инжинирингом, а также аппаратными средствами, реализующими нейронные сети. Хотя многие эксперты и осторожны, чтобы вновь не пасть жертвой недооцененных трудностей, которые ещё впереди.

Как только появится ИИ человеческого уровня, вскоре появится и суперинтеллект

Когда ИИ достигнет человеческого уровня, начнёт действовать положительная обратная связь, которая даст ещё более сильный толчок дальнейшему развитию. Машины с ИИ помогут создавать лучшие машины ИИ, которые в свою очередь помогут строить ещё лучшие, и т.д. Также предельная полезность улучшений в этой стадии, вероятно, резко бы выросла, что увеличило бы финансирование. Следовательно, мы можем предсказать, что как только появится ИИ человеческого уровня, пройдёт немного времени до того момента, когда суперинтеллект окажется технологически возможным.

Ещё один момент можно отметить в подтверждение этого предсказания. В отличие оттого, что возможно для биологического интеллекта, будет возможно копировать навыки или целые когнитивные модули из одного ИИ в другой. Если один ИИ достиг высот в некоторой области, последующие ИИ смогут загрузить программу предшественника или матрицу весов синаптических связей и сразу же достичь того же уровня производительности. Не будет необходимости вновь проходить процесс обучения. Будет ли также возможным копировать лучшие части нескольких ИИ и совмещать их в один, будет зависеть от особенностей исполнения ИИ и степени, до которой ИИ смогут быть разбиты на стандартные модули. Но как общий принцип, интеллектуальные достижения ИИ аддитивны тем способом, каким человеческие достижения не аддитивны, или аддитивны во много меньшей степени.

Спрос на суперинтеллект

Предположим, суперинтеллект однажды станет технологически возможным. Но захотят ли люди его построить? На этот вопрос можно довольно уверенно ответить утвердительно. С каждым шагом на пути к суперинтеллекту связаны громадные экономические выгоды. Компьютерная индустрия инвестирует огромные суммы в следующее поколение машин и программного обеспечения и будет продолжать это делать, пока существует конкурентный пресс, и это даёт прибыли. Люди хотят иметь лучшие компьютеры и более умное программное обеспечение, и они хотят получать выгоды, которые эти машины могут помочь производить. Лучшие лекарства, освобождение людей от необходимости выполнять скучные и опасные виды работы, развлечения - нет конца перечню выгод для потребителей. Существует также сильный военный мотив в разработке ИИ. И на этом пути нигде нет какой-либо естественной точки остановки, где технофобы, вероятно, могли бы сказать "до сих пор, но не дальше".

Поэтому, по-видимому, силы, стоящие за улучшением ИИ вплоть до уровня эквивалентности человеку, легко преодолеют любое возможное сопротивление. Когда ставится вопрос об ИИ человеческого уровня или выше, можно предположить, что на пути дальнейшего развития могут оказаться значительные политические силы. Суперинтеллект может рассматриваться как создающий угрозу превосходству и даже выживанию человеческого вида. Можем ли мы соответствующим программированием организовать мотивационную систему суперинтеллекта таким образом, чтобы гарантировать послушание и подчинение людям - спорный вопрос. Если политики будущего смогут быть уверены, что ИИ не подвергнет опасности интересы человека, развитие ИИ продолжится. Однако, если они не будут уверены, что опасности нет, тогда развитие всё равно вполне может продолжиться. Коллективное решение запретить новые исследования в этой области не сможет быть достигнуто и успешно воплощено - либо потому, что люди не будут рассматривать постепенное замещение биологических людей искусственно созданными машинами как нечто обязательно плохое, либо из-за действия других мощных сил - мотивации краткосрочными прибылями, любопытства, идеологии, потребности в возможностях, которые суперинтеллект даёт его создателям.

Заключение

В зависимости от предполагаемой степени оптимизации, ИИ человеческого уровня, вероятно, потребует от 10^14 до 10^17 ops. Кажется вполне возможным, что усовершенствованная оптимизация могла бы ещё сократить эти цифры, но начальный уровень был бы вероятно не меньше чем около 10^14 ops. Если закон Мура будет продолжать выполняться, нижняя граница будет достигнута где-то между 2004 и 2008 годами, а верхняя - между 2015 и 2024. Прошлый успех закона Мура даёт некоторые индуктивные основания полагать, что он будет продолжать выполняться ещё около десяти-пятнадцати лет; и это предсказание подкрепляется фактом, что существует ряд многообещающих новых технологий, находящихся в данный момент в стадии разработки. Они содержат огромный потенциал для увеличения вычислительной мощности, который можно купить за те же деньги. Не существует прямых оснований предполагать, что закон Мура не будет выполняться больше, чем 15 лет. Поэтому представляется вероятным, что необходимые для ИИ человеческого уровня аппаратные средства будут созданы в первой четверти следующего столетия, возможно в его первые несколько лет.

Существует несколько подходов к разработке программного обеспечения для ИИ. Один из них - эмулировать основные принципы биологического мозга. Не кажется неправдоподобным предположение, что в пределах 15 лет эти принципы будут познаны достаточно хорошо, чтобы при адекватных аппаратных средствах этот подход привёл к успеху.

Стагнация ИИ в семидесятых и восьмидесятых годах не имеет большого отношения к вероятности осуществления ИИ в будущем, т.к. нам известно, что причина, ответственная за эту стагнацию (а именно - то, что доступные для исследователей ИИ аппаратные средства оставались на уровне около 10^6 ops), больше не действует.

Будет сильный и всё увеличивающийся прессинг улучшать ИИ вплоть до человеческого уровня. Если найдётся способ гарантировать, что сверхчеловеческий ИИ будет подчиняться людям, то такой интеллект будет создан. Если нет возможности это гарантировать, тем не менее, вероятно, он всё равно будет создан.

Ссылки:


Популярность: 27, Last-modified: Mon, 20 Dec 1999 06:18:37 GmT