Книга Сердце машины. Наше будущее в эру эмоционального искусственного интеллекта, страница 12. Автор книги Ричард Йонк

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Сердце машины. Наше будущее в эру эмоционального искусственного интеллекта»

Cтраница 12

В XIX и XX веках прогресс в области математической логики в сочетании с делающей первые шаги электроникой привел к появлению машинной логики, а впоследствии – к появлению целого ряда языков программирования. Кроме того, исследования в области неврологии, проведенные в XX веке, не так давно определили, что мозг сам по себе – это сеть клеток, обменивающихся сигналами. Сложно удержаться от их сравнения с современными электрическими и опорными коммуникационными сетями.

В период Второй мировой войны вычислительные технологии поднялись на более высокий уровень, и в конечном итоге возникла уверенность в неизбежном появлении искусственного интеллекта (ИИ). Военные нужды и проблема на первый взгляд не поддающихся дешифровке сообщений, используемых Германией и Японией, обусловили гигантские шаги в области, которая стала одним из направлений информатики5. Группа дешифровщиков из Блетчли-Парк, Англия, в составе которой был и Алан Тьюринг, годами работала над решением проблемы6. Возможно, без их достижений война длилась бы куда дольше и союзники могли потерпеть поражение. После Второй мировой войны компьютерные науки и теория находились на том этапе, когда некоторые ученые и исследователи считали, что человечеству вскоре удастся создать настоящий машинный разум.

Учитывая обстоятельства, легче понять, почему новая область информатики истолковала эту идею настолько неверно. Машинный «разум» выиграл войну – сначала это почти удалось Германии, но в конечном итоге победили союзники. Без технологии немецкая машина «Энигма» не могла бы шифровать и расшифровывать тысячи, казалось бы, не поддающихся расшифровке сообщений. Без еще более сложной технологии (усовершенствованной за счет человеческого разума в качестве основного компонента) союзники не взломали бы разработанное по последнему слову науки и техники тех времен и практически абсолютно криптографически стойкое шифрование.

После войны Тьюринг, все еще обязанный исполнять закон о неразглашении государственной тайны Великобритании, опубликовал свою знаменитую статью 1950 года «Вычислительные машины и разум» (Computing Machinery and Intelligence), которая начинается словами: «Я предлагаю рассмотреть вопрос „Могут ли машины думать?"»7 Наряду с другими аналитическими разработками, такими как формализованная логика, созданная в середине XIX века математиком Джорджем Булем, автором книги «Законы мысли» (The Laws of Thought), становится проще понять, насколько специалисты в области компьютерных наук были слепы в отношении трудностей, с которыми они столкнулись. С некоторыми из сложнейших интеллектуальных проблем столкнулся не человеческий разум, а его слуга – машина.

В послевоенные годы в исследования машинного интеллекта вкладывали миллионы долларов. Термин «искусственный интеллект» был введен в обращение в 1956 году на конференции в Дартмуте, которая считается началом этого направления. В конце 1950-х годов было предпринято несколько практических попыток создания первых программ ИИ: Logic Theorist, написанная в 1956 году, и General Problem Solver, написанная в 1957 году, а также создание языка программирования ИИ LISP в 1958 году. Но несмотря на открытия, было множество провалов. Наконец в начале 1970-х годов правительства Соединенных Штатов и Великобритании, разочарованные отсутствием прогресса и под влиянием политического давления, прекратили финансирование в этой области. Этот период получил название «зима ИИ» – образное выражение, означавшее утрату иллюзий со стороны политиков и крупных корпораций, что привело к значительному сокращению финансирования проектов по разработке ИИ.

Учитывая положительную обратную связь и пользу, которую приносит технология, она обеспечивает нам возможность изменять окружающий мир с невиданной скоростью, что ведет к ускорению темпа изменений.

Последующие периоды подъема и упадка отрицательно сказались на сфере исследований ИИ, но во многом это было необходимо. Подобно тому как условия окружающей среды оказывают давление на природу, внося свой вклад в эволюционные процессы естественного отбора, экономические и социальные реалии влияют на эволюцию технологии. При разработке идей менее удачные отвергают или откладывают в сторону и исследуют новые. Если финансирование бесперспективных проектов не прекращается, ресурсы и усилия расходуются понапрасну.

Подобные периоды разочарования служат важной цели – отделяют зерна от плевел.

Тем не менее, несмотря на все возникшие перед становлением искусственного интеллекта проблемы, у направления все же был припрятан в рукаве туз, о котором люди на начальном этапе разработок могли и не знать: закон Мура.

Постоянное развитие компьютерной технологии было обусловлено многими причинами, но, вне всякого сомнения, одним из основных решающих факторов была тенденция, которую впоследствии назвали законом Мура. Название вошло в употребление через пять лет после выхода в 1965 году статьи Гордона Мура, в то время директора отдела исследований и разработок компании Fairchild Semiconductor, а одноименное наблюдение описывает одну из наиболее важных тенденций технологии. В своей статье Мур представил график из четырех точек, показавший, что количество транзисторов, размещенных на кристалле интегральной микросхемы, регулярно удваивается. Схема повторялась в период с 1962 по 1965 год. Мур считал, что тенденция будет устойчивой, и выдвинул экстравагантный прогноз, согласно которому в пределах десятилетия плотность электронных компонентов возрастет с 64 до более чем 65 000. Это увеличение – более чем в тысячу раз – соответствует удвоению в течение каждого года (210 равно 1024). Позже, в 1975 году, Мур пересмотрел прогноз и сказал, что в будущем удвоение будет происходить каждые два года.8

Закон Мура – не столько непреложный закон физики или природы, сколько наблюдение за характером технологического прогресса. Тем не менее он оставался движущей силой экономических бизнес-моделей на протяжении более полувека. Эта тенденция, как и другие, которые служат стимулом для развития электроники, привела к появлению более быстрых и мощных компьютеров и произвела цифровую революцию, которая уже изменила наш мир и общество. Из закона Мура следовало, что тенденция размещать возрастающие вычислительные мощности на меньшем пространстве позволяла снизить требования к источнику питания, выделение тепла и, самое важное, затраты на процессорный цикл.

По некоторым показателям, в последние годы темп замедлился, и появились прогнозы, что закон Мура больше не работает. Это значит, что промышленность достигла предела в развитии технологий и методов производства. Как отметил изобретатель, футуролог и писатель Рэй Курцвейл, интегральная микросхема, о которой говорилось в законе Мура, всего лишь пятая парадигма более масштабной тенденции, которую можно отследить с начала XX века. Электромеханическая обработка, реле, вакуумные трубки и транзисторы также развивались по схеме удвоения вычислительной мощности по отношению к затратам в течение некоторого времени. Возникнет ли шестая, полупроводниковая парадигма? Многие компании делают на это ставку и занимаются исследованиями и разработками, которые, по их мнению, сделают полупроводники основной компьютерной технологией будущего.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация