Природа юмора изучена недостаточно хорошо, поэтому мы не знаем, требуется ли универсальное мышление для составления шуток. Поэтому вполне понятно, что, несмотря на широкий диапазон тем, на которые можно пошутить, существуют скрытые связи, сводящие весь процесс придумывания шутки к единственной узкой функции. В этом случае однажды вместо людей могут появиться универсальные программы для придумывания шуток, так же, как сейчас у нас есть программы, не являющиеся людьми и играющие в шахматы. Звучит невероятно, но в отсутствие разумного объяснения, которое исключило бы такую возможность, мы не можем считать выдумывание шуток единственным способом оценки искусственного интеллекта. Но что мы можем сделать — это вести разговор на более чем разнообразные темы и следить за тем, адаптируются ли ответы программы по смыслу к различным возникающим в процессе целям. Если программа на самом деле думает, то в ходе такого разговора она проявит себя — одним из бесчисленных и непредсказуемых способов, — так же как это сделали бы вы или я.
Есть и более глубокая проблема. Способности искусственного интеллекта должны обладать своего рода универсальностью: специализированное мышление не будет считаться мышлением в том смысле, который предполагал Тьюринг. Я предположу, что каждый искусственный интеллект — это субъект — универсальный объяснитель. Можно допустить, что между искусственным интеллектом и «универсальным объяснителем / конструктором» есть и другие уровни универсальности и, возможно, есть отдельные уровни для таких свойств, как сознание. Но, по-видимому, все эти отличительные свойства появились одним скачком к универсальности у человека, и, хотя мы не преуспели в их объяснении, мне неизвестно ни одного убедительного аргумента в пользу того, что они находятся на других уровнях или их можно было достичь независимо друг от друга. Поэтому я предварительно предполагаю, что они нераздельны. Так или иначе, нам следует ожидать, что искусственный интеллект будет достигнут скачком к универсальности от чего-то гораздо менее мощного. Напротив, способность имитировать человека неидеально или только в отдельных его функциях — это не форма универсальности. Она может существовать в виде отдельных уровней. А значит, даже если чатботы вдруг начнут имитировать (или обманывать) людей гораздо лучше, это всё равно не приведёт нас к искусственному интеллекту. Научиться лучше притворяться, что умеешь думать, — не то же самое, что приблизиться к способности думать.
Существует философское направление, главный принцип утверждает, что это, напротив, одно и то же. Это течение называется бихевиоризмом и является инструментализмом в применении к психологии. Другими словами, это учение о том, что психология может или должна только быть наукой о поведении, а не о мышлении, что она может только измерять и предсказывать отношения между внешними обстоятельствами людей («стимулами») и наблюдаемым поведением людей («реакцией»). Последнее, к сожалению, представляет собой именно тот подход, который в рамках теста Тьюринга должен применять судья, рассматривая кандидата на искусственный интеллект. Тем самым поддерживается установка, что если программе удаётся достаточно хорошо притворяться искусственным интеллектом, значит, она им обладает. Но в конечном счёте программа, не являющаяся искусственным интеллектом, не может его имитировать. Путь к искусственному интеллекту не может лежать через всё более удачные трюки, благодаря которым чатботы становятся более убедительными.
Вне сомнения, бихевиорист спросит: а в чём, собственно, разница между тем, что мы дадим чатботу очень богатый набор трюков, шаблонов и баз данных, и тем, что наделим его возможностями искусственного интеллекта. Что такое программа искусственного интеллекта, если не набор таких трюков?
При обсуждении ламаркизма в главе 4 я указал на фундаментальную разницу между усилением мышцы в течение жизни одной особи и увеличением её силы в ходе эволюции. В первом случае знание о том, как достичь всех доступных мышечных сил должно присутствовать в генах особи ещё до начала череды изменений. (И то же относится к знанию о том, как распознать обстоятельства, при которых нужно запускать изменения.) Это точный аналог «трюка», который программист должен встроить в чатбот: чатбот отвечает, «как если бы» он при составлении ответа создал часть знания, но на самом деле все знания были созданы заранее и в другом месте. Аналогом эволюционных изменений вида является творческое мышление человека. Аналог идеи о том, что искусственный интеллект можно создать, накапливая трюки чатбота, — это ламаркизм, теория о том, что новые адаптации можно объяснить изменениями, которые в действительности являются лишь проявлением существующих знаний.
Существует несколько современных областей научного поиска, которым присуще одно общее заблуждение. Область исследований по искусственному интеллекту, крутящаяся вокруг чатботов, целиком зашла в тупик, но и на других направлениях проблема связана с тем, что исследователи дают чрезмерно завышенные оценки своим реальным, хотя и относительно скромным достижениям. Одним из таких направлений является искусственная эволюция.
Вспомним идею Эдисона о том, что прогресс требует сменяющих друг друга фаз «вдохновения» и «работы в поте лица», а также то, что благодаря компьютерам и другим технологиям появляется всё больше возможностей автоматизации для второй фазы. Этот приятный результат ввёл в заблуждение тех, кто слишком уверен в достижении искусственной эволюции (и искусственного интеллекта). Допустим, например, что вы аспирант со специализацией в области робототехники и хотите сконструировать робота, который будет ходить на двух ногах лучше предыдущих. Первая стадия решения этой задачи должна включать в себя вдохновение, другими словами, творческое мышление, направленное на улучшение попыток предыдущих исследователей. Вы будете отталкиваться от них, от известных решений других задач, которые, по вашим предположениям, могут иметь отношение к данной, и от строения ходящих животных. Всё это составляет существующие знания, которые вы будете варьировать и комбинировать по-новому, а затем критиковать и снова варьировать. В итоге вы создадите техническую конструкцию нового робота: ноги с рычагами, шарнирами, тяговыми тросами и моторами; тело с блоком питания; органы чувств, через которые робот будет получать обратную связь и тем самым сможет правильно управлять конечностями; а также компьютер, который будет осуществлять управление. В этой конструкции вами для ходьбы будет наилучшим возможным способом адаптировано всё, кроме программы в компьютере.
Программа должна будет распознавать такие ситуации, когда, например, робот вот-вот потеряет равновесие или наталкивается на препятствие, вычислять соответствующее действие и выполнять его. Это самая сложная часть исследовательского проекта. Как узнать, когда лучше обойти препятствие слева, а когда — справа, когда перепрыгнуть через него, а когда отпихнуть его в сторону, или пройти прямо по нему, или шагнуть шире, чтобы не наступить на него, или решить, что его преодолеть нельзя и повернуть назад? И как именно в каждом из таких случаев нужно осуществить все эти действия по отсылке бесчисленного количества сигналов в моторы и механизмы в соответствии с обратной связью, полученной от органов чувств?