Драгон, воинствующий дилетант (i_ddragon) wrote in ru_transhumans,
Драгон, воинствующий дилетант
i_ddragon
ru_transhumans

Что там насчёт китайской комнаты Серла?

Оригинал взят у i_ddragon в Что там насчёт китайской комнаты Серла?
Тест Тьюринга заключается в следующем. Допустим, некое существо сидит в закрытой комнате, и я имею возможность общатся с этим существом через окошко в комнате, передавая записки с вопросами - а существо будет передавать мне записки с ответами. И если я буду ощущать его ответы осмысленными - то значит, это существо обладает собственным разумом и собственным сознанием, причём связанным с разумом. Говоря об "обладает сознанием, связанным с разумом", я имею в виду, что во время общения оно будет ощущать квалиа понимания. Также например, будет возможен случай, когда я напишу ему что-то для него приятное - а оно не просто напишет в ответ "ура, класс", а действительно ощутит удовольствие. Или если я напишу для него что-то обидное - то оно не просто выдаст в ответ "фу", а действительно ощутит обиду.

Короче говоря, тест Тьюринга поднимает целый пласт философских проблем - существует ли возможность проверить - обладает ли робот некой "душой" - или просто мигает лампочками? Применимо ли к роботу понятие эмпатии (а также садизма) - или эмпатия к роботу это нечто вроде эмпатии к резиновой кукле?

Серл в качестве контраргумента к эффективности теста Тьюринга предлагает следующий мысленный эксперимент - китайская комната Сёрла. По условию эксперимента предлагается вести общение на китайском языке, авместо того существа в комнату садится сам Сёрл - причём вместе с горой инструкций в духе "если тебе подали иероглиф А, то достань таблички с иероглифами Б и В, и соединив их, отдай в виде ответа". Сёрл утверждает, что в этом случае ответы мною могут быть признаны правильными, но при этом сам отвечающий - Сёрл - понимать их не будет. В общем, "интеллект" комнаты оказывается разорван с находящемся в нём "сознанием". А небольшая доработка - то есть создание автомата, следующего горе инструкций, и замена Сёрла на него - вообще исключит из системы какое-то сознание. Итого, мы получим робота, который вроде бы и отвечает осмысленно, но сам при этом ничего не смыслит в ответах.

Принятие контраргумента Сёрла приводит к эпифеноменализму - мол, а откуда мы тогда знаем, что чего-то понимают другие люди - не являются ли они вдруг философскими зомби? Эта позициа не только очень неудобна - так, она убивает всякую возможность например узнать, является ли сознательным другой человек. Она по-своему очень шаткая - например, моё высказывание о моих ментальных состояниях вроде бы является внешним проявлением моих ментальных состояний. Причём именно мои ментальные состояния являются для меня достоверно существующими явлениями, а вот существование материальных нейронов, с которыми они связанны - суть не более чем рабочая гипотеза. В общем, с одной стороны, эпифеноменализма желательно избежать - с другой, надо это сделать так, чтобы не игнорировать контраргумент Сёрла.

Самым простым возражением является то, что мол сознанием и пониманием в случае китайской комнаты обладает вся система "Сёрл+набор инструкций", а не сам Сёрл. Вы же не будете требовать от отдельного нейрона понимания языка, на котором говорите - даже если этот нейрон сам обзаведётся своим собственным мини-мозгом и сознанием? Сёрл на это возражает, что мол он может заучить весь набор инструкций - пользоваться ими, но так ничего и не понять. Могу предложить в качестве возражения, что мол заучив все инструкции, Сёрл загрузил в себя вторую личность - и по сути, выполняемое им суть индуцированное раздвоение личности - а при раздвоении одна личность не обязана понимать то, что делает вторая - при это вторая всё понимать будет.

У кого ещё какие есть мысли насчёт аргумента Сёрла?

Tags: ИИ
Subscribe
  • Post a new comment

    Error

    default userpic
    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments