#ЧИТАЕМКНИГИ. ИННОВАТОРЫ
THE TENGE продолжает постоянную рубрику #ЧитаемКниги — полезные, поучительные, важные и просто интересные отрывки из книг.
Это история о разных этапах цифровой революции, о том, как добиваться того, чтобы мечты претворялись в жизнь. Начинается она с сороковых годов XIX века, с Ады Лавлейс, первой нащупавшей принципы компьютерного программирования. А дальше следует рассказ о тех, без кого не было бы ни компьютеров, ни интернета — о Вэниваре Буше, Алане Тьюринге, Билле Гейтсе, Стиве Возняке, Стиве Джобсе и Ларри Пейдже.
Читаем вместе отрывок из третьей главы — Может ли машина мыслить?
Когда Алан Тьюринг раздумывал о конструировании компьютера с сохраняемой программой, он обратил внимание на утверждение, сделанное Адой Лавлейс столетием ранее, в ее финальном «Примечании» к описанию аналитической машины Бэббиджа. Она утверждала, что машины не смогут думать. Тьюринг задался вопросом: если машина может изменить свою собственную программу на основе обрабатываемой ею информации, не форма ли это обучения? Не может ли это привести к созданию искусственного интеллекта?
Вопросы, связанные с искусственным интеллектом, возникали уже в древности. Тогда же возникали и вопросы, связанные с человеческим сознанием. Как и в большинстве обсуждений такого рода, важную роль в изложении их в современных терминах сыграл Декарт. В своем трактате 1637 года «Рассуждение о методе» (который содержит знаменитое утверждение «Я мыслю, следовательно, я существую») Декарт писал:
Если бы сделать машины, которые имели бы сходство с нашим телом и подражали бы нашим действиям, насколько это мыслимо, то у нас все же было бы два верных средства узнать, что это не настоящие люди. Во-первых, такая машина никогда не могла бы пользоваться словами или другими знаками, сочетая их так, как это делаем мы, чтобы сообщать другим свои мысли. Во-вторых, хотя такая машина многое могла бы сделать так же хорошо и, возможно, лучше, чем мы, в другом она непременно оказалась бы несостоятельной, и обнаружилось бы, что она действует несознательно.
Тьюринга уже давно интересовало, как компьютер мог бы повторить работу человеческого мозга, и его любопытство было подогрето еще больше работой на машинах, которые расшифровывали закодированные сообщения. В начале 1943 года, когда в Блетчли-Парке уже был готов Colossus, Тьюринг пересек Атлантику и направился в Bell Lab, расположенный в Нижнем Манхэттене, для консультаций с группой, работающей над шифрованием речи с помощью электронного устройства (скремблера) — технологией, которая могла бы зашифровывать и расшифровывать телефонные разговоры.
Там он встретился с колоритным гением — Клодом Шенноном, который, будучи выпускником Массачусетского технологического института, в 1937 году написал дипломную работу, ставшую классической. В ней он показал, как булева алгебра, которая представляет логические предложения в виде уравнений, может быть отображена с помощью электронных схем. Шеннон и Тьюринг стали встречаться за чаем и вести долгие разговоры. Оба интересовались наукой о мозге и понимали, что в их работах 1937 года было нечто общее и фундаментальное: они показали, как машине, которая оперирует простыми двоичными командами, можно ставить не только математические, но и всевозможные логические задачи. А поскольку логика была основой человеческого мышления, то машина могла бы в теории воспроизвести человеческий интеллект.
«Шеннон хочет кормить [машину] не только данными, но и произведениями культуры! — однажды сказал Тьюринг коллегам по Bell Lab на обеде. — Он хочет сыграть ей что-нибудь музыкальное». На другом обеде в столовой Bell Labs Тьюринг вещал своим высоким голосом, слышным всем присутствовавшим в помещении: «Нет, я не собираюсь конструировать мощный мозг. Я пытаюсь сконструировать всего лишь посредственный мозг — такой, например, как у президента Американской телефонной и телеграфной компании».
Когда в апреле 143 года Тьюринг вернулся в Блетчли-Парк, он подружился с коллегой Дональдом Мичи, и они провели много вечеров, играя в шахматы в соседнем пабе. Они часто обсуждали возможность создания шахматного компьютера, и Тьюринг решил подойти к проблеме по-новому. А именно: не использовать напрямую всю мощность машины для расчета каждого возможного хода, а постараться дать машине возможность самой учиться игре в шахматы, постоянно практикуясь. Другими словами, дать ей возможность пробовать применить новые гамбиты и совершенствовать свою стратегию после каждого нового выигрыша или проигрыша. Такой подход в случае успеха являлся бы существенным прорывом, который порадовал бы Аду Лавлейс. Было бы доказано, что машины способны на большее, чем просто следовать инструкциям, данным им людьми, — они могли бы учиться на опыте и улучшать свои собственные команды.
«Считается, что вычислительные машины могут выполнять только такие задачи, на которые им даны команды, — объяснил он в докладе, сделанном на Лондонском математическом обществе в феврале 1947 года. — Но необходимо ли, чтобы они всегда использовались таким образом?» Затем он обсудил возможности новых компьютеров с сохраняемой программой, которые могут сами изменять таблицы команд, и продолжил: «Они могли бы стать похожими на учеников, которые многому научились у своего учителя, но добавили гораздо больше своего. Я думаю, что, когда это произойдет, придется признать, что машина демонстрирует наличие интеллекта».
Когда он закончил доклад, слушатели на мгновение замолкли, ошеломленные заявлением Тьюринга. Его коллеги из Национальной физической лаборатории вообще не понимали одержимости Тьюринга созданием думающих машин. Директор Национальной физической лаборатории сэр Чарльз Дарвин (внук биолога, создателя теории эволюции) в 1947 году написал своему начальству, что Тьюринг «хочет распространить свою работу над машиной еще дальше, в сторону биологии» и ответить на вопрос: «Можно ли сделать такую машину, которая может учиться на своем опыте?»
Смелая мысль Тьюринга о том, что машины смогут когда-нибудь думать, как люди, в то время вызвала яростные возражения, да и до сих пор вызывает. Появились как вполне ожидаемые религиозные возражения, так и нерелигиозные, но весьма эмоциональные, как по содержанию, так и по тону. Нейрохирург сэр Джеффри Джефферсон в речи, произнесенной по случаю награждения престижной медалью Листера в 1949 году, заявил: «Согласиться с тем, что машина так же разумна [как человек], мы сможем не раньше, чем она сможет написать сонет или сочинить концерт под влиянием своих мыслей и эмоций, а не из-за случайного выбора символов». Ответ Тьюринга репортеру из лондонского Times, казалось, был несколько легкомысленным, но тонким: «Сравнение, возможно, не совсем справедливо, поскольку сонет, написанный машиной, лучше оценивать другой машине».
Таким образом, был заложен фундамент для второй основополагающей работы Тьюринга, «Вычислительные машины и разум», опубликованной в журнале Mind в октябре 1950 года. В ней он описал тест, ставший известным впоследствии как тест Тьюринга. Он начал с четкого заявления: «Я предлагаю рассмотреть вопрос: „Могут ли машины мыслить?“» С азартом, скорее присущим школьнику, он придумал игру — и в нее все еще играют и до сих пор обсуждают. Он предложил вложить в этот вопрос реальный смысл и сам дал простое функциональное определение искусственного интеллекта: если ответ машины на вопрос ничем не отличается от ответа, который дает человек, то у нас не будет никакого разумного основания считать, что машина не «думает».
Тест Тьюринга, который он назвал «Игра в имитацию», прост: экзаменатор направляет письменные вопросы человеку и машине, находящимся в другой комнате, и пытается определить, какой из ответов принадлежит человеку. Тьюринг предложил пример вопросника:
Вопрос: Пожалуйста, напишите мне сонет о мосте Форт[24].
Ответ: Не просите меня об этом. Я никогда не умел писать стихи.
В: Сложите 34 957 и 70 764.
О (пауза примерно 30 секунд, а затем дается ответ): 105 621.
В: Вы играете в шахматы?
О: Да.
В: У меня есть только K (король) на K1, и никаких других фигур.
У вас есть только K на K6 и R (ладья) на R1[25]. Ваш ход. Куда вы ходите?
О (после паузы 15 секунд): R на R8, мат.
В этом примере Тьюринга диалога содержится несколько важных вещей. Тщательное изучение показывает, что отвечающий после тридцатисекундного раздумья сделал небольшую ошибку в сложении (правильный ответ 105 721). Свидетельствует ли это о том, что он был человеком? Возможно. Но опять же, может быть, эта хитрая машина притворилась человеком. Тьюринг также ответил на соображение Джефферсона о том, что машина не может написать сонет: вполне возможно, что ответ, приведенный выше, был дан человеком, признавшимся, что он не умеет писать стихи. Далее в статье Тьюринг представил еще один воображаемый опрос, демонстрирующий сложность использования умения сочинить сонет в качестве критерия принадлежности к человеческому роду:
В: Считаете ли вы, что первую строку сонета: «Должен ли я сравнить тебя с летним днем» не испортит, а может, даже улучшит замена на «весенний день»?
О: Тогда нарушится размер.
В: Как насчет замены на «зимний день»? Тогда с размером все в порядке.
О: Да, но никто не хочет быть сравненным с зимним днем.
В: Вы хотите сказать, что мистер Пиквик напоминает вам о Рождестве?
О: В некотором смысле.
В: Тем не менее праздник Рождества приходится на зимний день, и я не думаю, что мистер Пиквик возражал бы против этого сравнения.
О: Я не думаю, что вы говорите серьезно. Под зимним днем обычно понимают типичный зимний день, а не особенный, вроде Рождества.
Смысл примера Тьюринга в том, что может оказаться невозможным сказать, отвечающий был человеком или машиной, делающей вид, что она человек.
Тьюринг высказал свое предположение о том, может ли компьютер выиграть в этой имитационной игре: «Я считаю, в течение примерно пятидесяти лет можно будет научиться так программировать компьютеры... что они смогут играть в имитацию настолько хорошо, что шанс среднего экзаменатора правильно идентифицировать отвечающего после пятиминутного опроса будет не более 70%».
В своей работе Тьюринг попытался опровергнуть множество возможных возражений на его определение разума. Он отмахнулся от теологического довода о том, что Бог даровал душу и разум только людям, возразив, что это «подразумевает серьезное ограничение на всемогущество Всевышнего». Он спросил, есть ли у Бога «свобода даровать душу слону, если Он сочтет это нужным». Предположим, что так. Из той же логики (которая, учитывая, что Тьюринг был неверующим, звучит язвительно) следует, что Бог, безусловно, может даровать душу и машине, если Он того пожелает.
Самое интересное возражение, на которое Тьюринг отвечает, — особенно для нашего повествования — это возражение Ады Лавлейс, написавшей в 1843 году: «Аналитическая машина не претендует на то, чтобы создавать что-то действительно новое. Машина может выполнить все то, что мы умеем ей предписать. Она может следовать анализу, но не может предугадать какие-либо аналитические зависимости или истины». Другими словами, в отличие от человеческого разума, механическое устройство не может иметь свободу воли или выдвигать свои собственные инициативы. Оно может только выполнять то, что запрограммировано. В своей статье 1950 года Тьюринг посвятил раздел этому высказыванию и назвал его «Возражение леди Лавлейс».
Гениальным ответом на это возражение был аргумент, что на самом деле машина может учиться, тем самым превращаясь в мыслящее исполнительное устройство, которое способно производить новые мысли. «Вместо того чтобы писать программу для имитации мышления взрослого человека, почему бы не попробовать написать программу, которая имитирует мышление ребенка? — спрашивает он. — Если запустить соответствующий процесс обучения, можно было бы в конце концов получить интеллект взрослого человека». Он признал, что процесс обучения компьютера будет отличаться от процесса обучения ребенка: «К примеру, его невозможно снабдить ногами, так что ему нельзя предложить сходить собрать уголь в ящик. Вероятно, у него не может быть глаз... Нельзя послать это существо в школу — для других детей оно будет посмешищем». Поэтому бэби-машина должна обучаться по-иному. Тьюринг предложил систему наказаний и наград, которая будет поощрять машину повторять некоторые действия и избегать других. В конце концов такая машина могла бы развивать свои собственные представления и объяснения того или иного явления.
Но даже если машина сможет имитировать разум, возражали критики Тьюринга, он будет не совсем разумом. Когда человек проходит тест Тьюринга, он использует слова, которые связаны с реальным миром, эмоциями, переживаниями, ощущениями и восприятиями. А машина не делает этого. Без таких связей язык становится просто игрой, оторванной от смысла.
Это возражение привело к продержавшемуся дольше всех опровержению теста Тьюринга, которое сформулировал философ Джон Сёрл в своем эссе 1980 года. Он предложил мысленный эксперимент, называемый «Китайской комнатой», в которой говорящему по-английски человеку, не знающему китайского языка, предоставляется полный свод правил, объясняющих, как составлять любые комбинации китайских иероглифов. Ему передается набор иероглифов, а он из них составляет сочетания, пользуясь правилами, но не понимая значения фраз, составленных им. Если инструкции достаточно хороши, человек мог бы убедить экзаменатора, что он действительно говорит по-китайски. Тем не менее он не понял бы ни одного составленного им самим текста, в нем не содержалось бы никакого смысла. В терминологии Ады Лавлейс он не претендовал бы на создание чего-то нового, а просто выполнял действия, которые ему было приказано выполнять. Аналогично и машина в имитационной игре Тьюринга, независимо от того, насколько хорошо она может имитировать человеческий разум, не будет понимать или сознавать ничего из того, что говорится. В том, чтобы сказать, что машина «думает», не больше смысла, чем в том, чтобы сказать, что человек, следующий многочисленным инструкциям, понимает китайский язык.
Одним из ответов на возражения Сёрла стало утверждение, что, даже если человек не понимает китайский язык, вся система как целое, собранная в Китайской комнате, то есть мужчина (блок обработки данных), инструкция по обращению с иероглифами (программа) и файлы с иероглифами (данные), возможно, действительно понимает китайский язык. Здесь нет окончательного ответа. И в самом деле, тест Тьюринга и возражения на него остаются по сей день наиболее обсуждаемой темой в когнитивных науках.
В течение нескольких лет после того, как Тьюринг написал «Вычислительные машины и разум», он, казалось, наслаждался участием в перепалке, которую сам спровоцировал. С едким юмором он парировал притязания тех, кто болтал о сонетах и возвышенном сознании. В 1951 году он подтрунивал над ними: «Однажды дамы возьмут свои компьютеры с собой на прогулку в парк и будут говорить друг другу: „Мой компьютер рассказывал сегодня утром такие забавные вещи!“» Как заметил позже его наставник Макс Ньюман, «его юмористические, но блестяще точные аналогии, пользуясь которыми он излагал свои взгляды, делали его восхитительным собеседником».
Была одна тема, которая не раз поднималась в ходе обсуждений с Тьюрингом и которая вскоре станет печально актуальной. Она касалась роли сексуальности и эмоциональных желаний, неведомых машинам, в работе человеческого мозга. Примером могут служить публичные дебаты, состоявшиеся в январе 1952 года на телевизионном канале BBC между Тьюрингом и нейрохирургом сэром Джеффри Джефферсоном. Модераторами на этом диспуте были математик Макс Ньюман и философ науки Ричард Брейтуэйт. Брейтуэйт, утверждавший, что для того, чтобы создать настоящую думающую машину, «необходимо оснастить машину чем-то подобным набору физических потребностей», заявил: «Интересы человека определяются по большому счету его страстями, желаниями, мотивацией и инстинктами».
Ньюман вмешался, сказав, что машины «имеют довольно ограниченные потребности и они не могут краснеть, когда смущаются». Джефферсон пошел еще дальше, неоднократно используя в качестве примера термин «сексуальные потребности» и ссылаясь на человеческие «эмоции и инстинкты, например имеющие отношение к сексу». «Человек — жертва сексуальных желаний, — сказал он, — и может выставить себя дураком». Он говорил так много о том, как сексуальные потребности влияют на человеческое мышление, что редакторы BBC вырезали некоторые из его высказываний из передачи, в том числе утверждение, что он не поверит, что компьютер может думать, пока не увидит, что он потрогает ногу женщины-компьютера.
Тьюринг, который все еще скрывал свою гомосексуальность, замолк во время этой части обсуждения. В течение нескольких недель, предшествовавших записи передачи 10 января 1952 года, он совершил ряд поступков, которые были настолько сугубо человеческими, что машина сочла бы их непостижимыми. Он только что закончил научную работу, а потом написал рассказ о том, как собирался отпраздновать это событие: «Прошло довольно много времени с тех пор, как у него „был“ кто-то, фактически с лета прошлого года, когда он встретил того солдата в Париже. Теперь, когда его работа закончена, он может с полным основанием считать, что заработал право на отношения с геем, и он знал, где найти подходящего кандидата».
В Манчестере на Оксфорд-стрит Тьюринг нашел девятнадцатилетнего бомжа по имени Арнольд Мюррей и завязал с ним отношения. Когда он вернулся с BBC после записи шоу, он пригласил Мюррея переселиться к нему. Однажды ночью Тьюринг рассказал молодому Мюррею о своей идее сыграть в шахматы против подлого компьютера, которого он смог бы победить, заставляя его проявлять то гнев, то радость, то самодовольство. Отношения в последующие дни стали более сложными, и однажды вечером Тьюринг вернулся домой и обнаружил, что его обокрали. Преступник оказался другом Мюррея. Тьюринг сообщил о случившемся в полицию, ему пришлось в конечном итоге рассказать полицейским о своих сексуальных отношениях с Мюрреем, и Тьюринг был арестован за «непристойное поведение».
На судебном процессе в марте 1952 года Тьюринг признал себя виновным, хотя ясно дал понять, что не чувствует никакого раскаяния. Макс Ньюман был вызван в суд в качестве свидетеля, дающего отзыв о характере подсудимого. Осужденный и лишенный допуска Тьюринг должен был сделать выбор: тюрьма или освобождение при условии прохождения гормональной терапии с помощью инъекций синтетического эстрогена, убивающего сексуальные желания и уподобляющего человека химически контролируемой машине. Он выбрал последнее и проходил курс в течение года.
Сначала казалось, что Тьюринг все это выносит спокойно, но 7 июня 1954 года он покончил жизнь самоубийством, откусив от яблока, пропитанного цианидом. Его друзья отмечали, что ему всегда нравилась сцена из «Белоснежки», в котором злая фея опускает яблоко в ядовитое варево. Он был найден в своей постели с пеной у рта, цианидом в теле и недоеденным яблоком, лежащим рядом с ним.
Способны ли так поступать машины?
UTC+00