Рассмотрим мысленный пример «Девушка по переписке»:

Молодой человек ищет спутницу жизни и, как принято, обращается к интернетовской службе знакомств. Задаёт параметры запроса -возраст, рост, объемы, цвет волос, знак зодиака, привычки и пр . В ответ - ряд кандидаток. Начинает переписываться. Особенно нравится девушка Элиза. Переписка длится более полгода - в выборе нельзя ошибиться! Беседы ведутся на самые разные темы: семьи, детей, секса, быта, отдыха, зарплаты, экономики, политики, литературы, китайской кухни и пр. Играют в шахматы с переменным успехом. Девушка поражает объемом знаний, лёгкостью в общении, изысканностью стиля. И глаза у неё выразительные. Наконец молодой человек не выдерживает и назначает встречу на площади у памятника. Приезжает с букетом роз. Ждёт. Час, два, три. Никто не приходит. Вернувшись ни с чем, пишет гневное письмо. В ответ - «Прости, милый! Я - Электронная Лиза, компьютерная программа»76.

1. Проблема тестирования компьютеризованной реальности

Молодому человеку не повезло - но он не убедился в адекватности своих представлений действительному положению дел. В шутку замечено, что в Интернете выдавать себя за человека может не только программа, но и животное, например, натренированная собака. Питер Стейнер в знаменитой карикатуре «В Интернете никто не знает, что ты - собака!» (1993 г.) [22] изобразил пса, сидящего перед компьютером и нажимающего на клавиши. «И в самом деле!» - восклицает Вильям Рапопорт по поводу этой карикатуры [24, Р.469]:

«В Интернете никто не знает, кто с кем на самом деле общается. Эго неведение может привести к самым серьёзным последствиям в реальной жизни. Если я ввожу номер кредитной карточки через Web-сайт с целью покупки книги, то не известно, куплю ли я эту книгу или выдам свой секретный код мошеннику. Компьютерная безопасность определяет способ социального благополучия и защиты личности, и даже жизнь или смерть. Если моя дочь общается посредством чата с лицами противоположного пола примерно её возраста, то кто знает, может быть, она общается с серийным убийцей. Обычно, правда, мы предполагаем такие опасности и полагаем, что общаемся не с мошенниками, убийцами, собаками. Или - как в нашем случае, с компьютерными программами».

Сегодня утверждения В. Рапопорта (2000 г.) несколько устарели на фоне экспоненциального развития информационно-коммуникационных средств, сопровождаемого, в свою очередь, громкими судебными делами по поводу преступлений, «соучастниками» которых выступают компьютеры. По всей видимости в недалёком будущем воплотится и сценарий «Девушка по переписке». Тогда актуальнейшей проблемой станет поиск методов и средств различения между человеком и компьютерной системой. Подобная проблема имеет давнюю традицию.

2. Тест Декарта

Считается (см., например, [13, 19]), что впервые на проблемы различения способностей человека и машины обратил внимание Р. Декарт (см.: «Рассуждение о методе, чтобы верно направлять свой разум и отыскивать истину в науках. Часть V» [3, С. 250-296.]). Он считал невозможным различение между нечеловеческим животным и машиной, если она ни внешним видом ни внутренним строением не будет отличаться от животного. Так как человек обладает разумом, в отличие от других существ, то даже если машина будет иметь полнейшее сходство с нашим телом и поведением, различение возможно. Для этого следует протестировать машину: 1) на её способность пользоваться языком так же, как пользуемся мы, сообщая другим свои мысли - она провалит тест, так как нельзя представить, что она должным порядком будет располагать слова; 2) на её способность работать в самых различных контекстах - тест также не будет пройден, так как только человеческому разуму под силу охватить всё многообразие всевозможных поведенческих ситуаций, даже если в некоторых частных случаях машина может действовать лучше нас.

Изменилось бы мнение Р. Декарта о возможности пройти такой тест машиной, если бы он сегодня познакомился с программами

ИИ в среде Интернет?77 Следует, конечно, учесть уровень технических достижений XVII в. [19]. В контексте же научно-технических успехов XX в. подобный тест был предложен Аланом М. Тьюринг (1912-1954 гг.) в статье 1950 г. Вычислительные машины и интеллект» [28], ставшей самой цитируемого в литературе по философии ИИ [8, Р.391]. В отличие от Р. Декарта, А. Тьюринг положительно решает вопрос построения мыслящих машин. Достаточным условием интеллектуальности системы он считает возможность компьютера «подражать» человеку в условиях игры в имитацию.

3. Игра в имитацию и канонический Тест Тьюринга [28]78

А. Тьюринг заменяет вечный вопрос «Могут ли машины мыслить?» (в силу его бессмысленности по причине неопределённости терминов) на «игру в имитацию» (по сути, лингвистическую игру79), которая состоит из трёх сценариев (обозначим их ИИ1 - ИИЗ)80 и последующих модификаций (ТТ1-ТТ2).

Перейти на страницу:

Похожие книги