Tanka
Участник
I Love!
licq:1708
|
отправлено: 06-09-2004 22:39:35 | |
инфо • правка • ссылка • сообщить модератору |
To ШВВ Так ведь вроде мыленный эксперимент "Китайская комната" полностью опроверг тест Тьюринга на определение того, с машиной или с человеком беседует следователь. Сегодня на транспьютерных системах у нас лекция была. |
|
IP |
|
ШВВ
unregistered
|
отправлено: 06-09-2004 22:46:48 | |
инфо • правка • ссылка • сообщить модератору |
To Tanka Так ведь вроде мысленный эксперимент "Китайская комната" полностью опроверг тест Тьюринга Может, расскажете: как? |
|
IP |
|
Tanka
Участник
I Love!
licq:1708
|
отправлено: 06-09-2004 22:53:09 | |
инфо • правка • ссылка • сообщить модератору |
To ШВВ А. Тьюринг в 1950 г. предложил тест, который бы помог определить, насколько машина может мыслить: задавать одни и те же вопросы машине и человеку, и, если следователь (не знающий какой ответ дала машина, какой - человек) не сможет определить какой ответ чей, значит машина способна мыслить. В комнату помещают человека, который не знает китайского языка, но который умеет оперировать иероглифами (не зная их значений). Если "следователь" - человек, который знает китайский язык, начинает задавать вопросы, то получает на них "логичные" ответы на китайском, хотя "подследственный" все равно не понимает смысл своих ответов. Доказал философ Дж. Сироу в начале 70-х годов. Т.о. доказал, что машина не может мыслить как человек, т.к. в таком случае она сравнивается с человеком из комнаты.
Сообщение изменено Tanka от Mon Sep 6 22:56:21 2004 |
|
IP |
|
Tanka
Участник
I Love!
licq:1708
|
|
ШВВ
unregistered
|
отправлено: 06-09-2004 23:40:22 | |
инфо • правка • ссылка • сообщить модератору |
To Tanka Аргумент «китайской комнаты» я знаю. Но знаю также, что он далеко не всеми принят и по-прежнему вызывает массу дискуссий. Я в своих постах по этой теме попытался объяснить, почему проблема, поставленная тестом Тьюринга, в принципе неразрешима. |
|
IP |
|
ШВВ
unregistered
|
отправлено: 07-09-2004 13:29:18 | |
инфо • правка • ссылка • сообщить модератору |
To Tanka Насколько я помню, аргумент «китайской комнаты» сводится к тому, что если «машина» Тьюринга и может «мыслить» (если понимать под этим способность давать приемлемые ответы на вопросы), то «понимать» то, что она при этом делает, она все же не может. Однако определить сколько-нибудь однозначно «понимание» еще труднее, чем определить «мышление». Наука, к примеру, «мыслит» мир. Значит ли это, что она его «понимает»? Поэтому мысленный эксперимент с переводом на китайский язык лишь запутывает проблему. Не верьте тем, кто рассказывает, будто Сёрл «опроверг» Тьюринга. |
|
IP |
|
wws
Участник
|
отправлено: 07-09-2004 17:47:54 | |
инфо • правка • ссылка • сообщить модератору |
To ШВВ Для разрешения ловушки Тьюринга нужно определить сначала, что такое машина. И в зависимости от определения машины будут разные результаты. Возможно в 1950 году под машиной подразумевали не совсем то, что сейчас и совсем не то, что например будут подразумевать через 100 лет. |
|
IP |
|
ШВВ
unregistered
|
отправлено: 07-09-2004 18:33:39 | |
инфо • правка • ссылка • сообщить модератору |
To wws Понятие машины, данное самим Тьюрингом ("автомат Тьюринга" настолько фундаментально, что едва ли изменится в предвидимом будущем. А решить: машины мы или не машины - надо бы сейчас. |
|
IP |
|
Tanka
Участник
I Love!
licq:1708
|
отправлено: 07-09-2004 18:55:17 | |
инфо • правка • ссылка • сообщить модератору |
To ШВВ Не верьте тем, кто рассказывает, будто Сёрл «опроверг» Тьюринга. Эээ... И как мне потом экзамен сдавать? |
|
IP |
|
ШВВ
unregistered
|
отправлено: 07-09-2004 19:35:01 | |
инфо • правка • ссылка • сообщить модератору |
To Tanka Наберите в поисковой системе, скажем, в ГУГЛе (Тьюринг, "Китайская комната" и просмотрите, что Вам покажут. Аргументы, что там фигурируют, нетрудно уразуметь. Может, и экзаменатор скажет спасибо. |
|
IP |
|
wws
Участник
|
отправлено: 08-09-2004 12:28:09 | |
инфо • правка • ссылка • сообщить модератору |
To ШВВ Современные машины часто состоят из многих самостоятельных друг от друга частей, каждая из которых тоже машина. Они между собой взаимодействуют. Так и про человека мы знаем, что внутри всякие клетки, которые имеют свою логику поведения. Получается что в машине лента одна, а головок много и они работают параллельно. А дальше уже дело веры. В рамках существующей физической картины мира, создание очень сложной машины - человека теоретически возможно, а практически зависит от способностей человечества. Если человек не может решить задачу, это не значит что у нее нет решения. Некоторые задачи решают сотни лет, а некоторые наверное не смогут решить никогда. |
|
IP |
|
ШВВ
unregistered
|
отправлено: 08-09-2004 12:51:17 | |
инфо • правка • ссылка • сообщить модератору |
To wws В рамках существующей физической картины мира, создание очень сложной машины - человека теоретически возможно, Да, именно в этих рамках. Но сюрпризов, думаю, нам следует ожидать не от отдельных сверхмощных компьютеров, а их глобальных сетей, угрожающих, как пишет Виндж в соседней теме, вдруг "себя осознать" |
|
IP |
|
Charly
Участник
Социалистического соревнования
|
отправлено: 22-09-2004 16:41:51 | |
инфо • правка • ссылка • сообщить модератору |
Американский чат-робот "Алиса" (Alice) завоевал очередную награду в состязании Лебнера. Данное соревнование, напомним, проводится с 1990 года, а участие в нем принимают программы искусственного интеллекта. По условиям конкурса, претендентам на приз необходимо поддерживать осмысленную беседу с судьями. Победителем же становится тот робот, который сможет лучше других убедить жюри в своей "человечной" сущности. Причем основным критерием для выставления оценок является так называемый тест Тьюринга, согласно которому программа признается "разумной" тогда, когда собеседник не может отличить ее от живого человека. Примечательно, что "Алиса" уже побеждала в соревновании Лебнера в 2000 и 2001 годах. С тех пор разработчикам удалось существенно усовершенствовать программу, и, в итоге, она вновь заняла первое место. Хотя, если быть совсем точным, роботу досталась лишь бронзовая награда, а серебряную и золотую медали, как и прежде, не смог завевать никто. Дело в том, что серебро получит только та программа, которая сможет "обмануть" не менее половины судей в текстовом режиме общения. Создателям робота достанется приз в размере 25 тысяч долларов США. Что касается претендентов на золото, то эти программы должны иметь еще и человеческое лицо, артикулирующее звуки в соответствии с произносимыми фразами. Приз за разработку такого робота - 100 тысяч долларов США. Следует добавить, что второе место после "Алисы" заняла британская программа Jabberwacky, передает ВВС. Причем авторы Jabberwacky уверены, что в скором времени смогут вырваться на лидирующую позицию, поскольку Jabberwacky способна к самообучению, в то время как "Алиса" работает на основании четко сформулированных правил и условных переходов. Посмотреть можно здесь: http://www.alicebot.org/ Классика... |
|
IP |
|
|