Книга Вселенная. Емкие ответы на непостижимые вопросы, страница 42. Автор книги Мартин Дж. Рис, Питер Шварц, Роберт Дж. Сойер, и др.

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Вселенная. Емкие ответы на непостижимые вопросы»

Cтраница 42

Мы последуем за ними в космос, как мы следуем за машинами уже многие годы. Первые космические зонды были не очень умными. Те, что сейчас летают на Марс, тоже не очень умны, но уже скоро мы начнем отправлять в космос все более и более разумные машины. Для понимания темпов исследований нам бы хорошо понимать, каков потенциал искусственного интеллекта. Еще одна причина интереса – неожиданные продвижения в науке и технологиях искусственного интеллекта и значительные коммерческие инвестиции в эту область, в том числе со стороны моей компании Salesforce.

В последнее время было немало предостережений об угрозах ИИ, угрозах наивысшего порядка, даже экзистенциальных. Сегодня люди беспокоятся, например, о рабочих местах. Не лишит ли ИИ нас всех работы, или не перехватят ли роботы власть? Победит ли в нашем мире «Терминатор»? Думаю, что не победит. Я буду говорить о том, есть ли в долгосрочной перспективе действительная экзистенциальная угроза нашему виду, и есть ли в краткосрочной перспективе существенная угроза нашим рабочим местам.

Итак, существуют разнообразные и хорошо аргументированные взгляды на этот вопрос, но они не новы. Вспомним 1965 год и процитируем Дж. Гуда: «Определим сверхразумную машину как машину, способную превзойти интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку разработка машин – один из видов такой интеллектуальной деятельности, сверхумная машина может строить машины еще умнее. Несомненно, случится взрыв интеллекта, и интеллект человека будет оставлен далеко позади. Тогда сверхумная машина будет последним изобретением, которое нужно будет сделать человеку, если, конечно, машина окажется достаточно покорной, чтобы позволить нам управлять ею».

Не так давно Билл Гейтс сказал, что «не может понять, отчего люди не озабочены ИИ». И профессор Хокинг в недавней редакционной статье 2014 года писал: «Глядя на возможное будущее с неисчислимыми выгодами и рисками, эксперты, несомненно, делают все возможное, чтобы обеспечить наилучший вариант, так? Не так. Если бы более развитая внеземная цивилизация прислала нам сообщение: “Ждите нас через несколько десятилетий”, разве мы бы ответили “Хорошо, позвоните, как доберетесь, мы оставим свет включенным”. Скорее всего, нет, но примерно это и происходит с ИИ». Так сказал профессор Хокинг.

С нами сейчас и Денни Хиллис, мой дорогой друг на протяжении многих лет. В 1985 году он основал замечательную компанию под названием «Думающие Машины» (Thinking Machines). У него был очень оптимистичный подход – девиз на двери его кабинета гласил: «Я хочу построить машину, которая будет мной гордиться». Это была, пожалуй, вторая волна энтузиазма по поводу ИИ, и я говорю вторая, потому что наблюдаю это явление уже 40 лет. Я начинал свою карьеру в Стенфордском исследовательском институте, и там была лаборатория дополнения человеческих возможностей, где Дуг Энгельбарт изобрел компьютерную мышь и интерактивный компьютерный экран. Но у нас была и лаборатория робототехники, и лаборатория искусственного интеллекта. Технологии дополнения возможностей изменили мир, и теперь мы в третий раз принимаемся за ИИ и робототехнику.

Когда я думаю о путях развития технологий, я думаю о трех «И» – инструменты, интеллект и инвестиции [17]. Далеко ли мы ушли в развитии новых инструментов? Над ними ли будут работать умные люди? Много ли в эту область вкладывается денег? И да, сегодня все это происходит в сфере ИИ. Мы наблюдаем значительное увеличение вычислительных мощностей, наступление так называемого машинного обучения; большие данные (Big Data) – огромные объемы данных, которые мы способны обработать. Даже Интернет вещей, который генерирует огромный объем новых данных и соединяет множество объектов в мире, делая их разумными. И конечно, большие сдвиги в нейронауке, в нашем понимании мозга.

Итак, у нас появляются значимые новые инструменты. Посмотрите, что происходит с молодыми учеными, заканчивающими университеты вроде Массачусетского технологического, Стенфорда, Карнеги Меллона и Кембриджа – куда они идут? Они идут в эти новые стартапы ИИ. Наконец, если посмотреть на сообщество венчурного капитала, все инвестируют в машинное обучение, буквально сотни компаний. Мы и сами инвестировали в несколько десятков, купив только за прошлый год больше дюжины. Таким образом, инструменты, интеллект и инвестиции сигнализируют о больших переменах.

Я бы хотел подойти к размышлениям об этих вещах со своего рода подходом оценки рисков, разобраться, какие риски нас ожидают. Для этого я использую инструмент, называемый сценарное планирование. Это инструмент, которым я сам пользуюсь уже около 40 лет. Я возглавлял сценарное планирование в корпорации Шелл, где мы развивали этот инструмент, чтобы принимать важные решения в условиях неопределенности. Это инструмент для размышлений о неопределенности.

О рисках стоит задуматься, потому что мы уже видели, что они могут реализоваться. Подумайте: расшифровка генома, ядерное оружие, космическое оружие и, совсем недавно, CRISPR [18] – это области технологий, о которых в обществе были большие дискуссии и для которых разрабатывались стратегии управления значимыми рисками. Подобная дискуссия об искусственном интеллекте только началась, так не следует ли нам как-то ограничить его?

Чтобы продумать сценарии, необходимо понимать, каковы главные неопределенности и к чему они могут привести? Что наименее определенно и что будет иметь наибольшие последствия? Особенно важно, будет ли у нас достаточно времени на принятие решения, если последствия нам не понравятся? Успеем ли мы начать действовать или нас захлестнет переменами как в сингулярности – сценарии, предложенном Верноном Винджем и Рэйем Курцвайлем?

Итак, есть три категории рисков, о которых нам стоит подумать. Во-первых, те, которым мы уже подвергаемся – традиционные риски потери рабочих мест, которые сопровождают огромные технологические перемены, преображающие то, как выполняется работа, как работает промышленность, как работает общество. И это те опасения, которые испытывает сегодня большинство людей. Вторая категория рисков – это… позвольте мне назвать это некомпетентным ИИ или ИИ с неверными алгоритмами, как мы видели в «Одиссее 2001 года» – вы видели «Хал 9000», маниакально сосредоточенный на своей миссии и стремящийся убить всех людей вокруг себя, чтобы выполнить эту миссию. Я думаю об умном автомобиле, который в будущем скажет: «Нет, я не стану останавливаться у Макдоналдса, это вредно для вас». Я думаю как бы о дерзком роботе. И это вторая категория.

И третья, которая особенно страшна и беспокоит всех, – доминантный или злонамеренный ИИ. Сценарий Терминатора, если угодно. Я бы хотел провести различие между тем, что я называю большим ИИ, и малым, или ограниченным ИИ, как его иногда называют в отрасли. Ограниченный ИИ – это просто небольшие порции разума, применяемые сейчас почти в любом процессе, чтобы снять с человека рутинную работу. Простой пример, который многие сегодня используют, это покупка в один клик на Амазоне, так? Вы кликаете на выбранную книгу, и она моментально становится вашей, потому что одновременно маленький робот-клерк проверяет, человек ли это? Он действительно Шварц? Все ли в порядке с его кредитной картой? Верно ли указан его адрес? Да, мы можем завершить транзакцию. Немного ИИ. Или заселение в отель, когда ваш смартфон удостоверяет для отеля вашу личность и ИИ отвечает: «Добро пожаловать, мистер Шварц. Ваш номер – 905. Регистрироваться нет необходимости».

Вход
Поиск по сайту
Ищем:
Календарь
Навигация