kaipa: (Default)
[personal profile] kaipa
Наверное, многие знают этот мысленный эксперимент, но я о нем прочитал впервые. В книге Хоукинса он описан более ярко, чем на википедии, поэтому я перескажу, следуя его изложению.

Представьте себе комнату, в которой стоит стол со стулом, и на столе лежит толстый справочник с инструкциями. В справочнике написаны некоторые инструкции по манипуляции с китайскими иероглифами. Типа, "если иероглиф выглядит так, а следующий за ним -- так, то пишем такой иероглиф на чистом листе". И т.д. Кроме того на столе есть много бумаги, карандаши, ластики и т.д. За столом сидит человек, не знающий китайского, например вы.

Через окошко вам передают несколько листочков с текстом на китайском. И вы, пыхтя и отдуваясь, начинаете по инструкциям их сравнивать, записывать на листочки, стирать, записывать на следующие и т.д., пока инструкция не скажет, что вы закончили. Последний листочек вы передаете обратно.

А за окошком стоит китаец, который написал рассказ и вопросы к нему, и на вашем листочке прочитал ответы, подробные и вдумчивые. Китаец совершенно точно сделает вывод, что вы умеете читать, писать и понимать по-китайски, хотя это, очевидно, совсем не так.

Если вы вдруг не знакомы с этим экспериментом, то в этом месте разумно задать вопрос: а что мы хотим продемонстрировать, собственно?

Этот эксперимент очень сильно напоминает то, как работают большинство компьютерных систем, которые принято называть "интеллектуальными". Справочник с инструкциями -- это программа, человек -- процессор, листочки -- память. Есть иллюзия интеллектуальности, но не более того. Автоматические переводчики не понимаю того, что переводят. Deep Blue обыграл Каспарова, но разбирается в шахматах не больше, чем настольный калькулятор в математике. Эти простые истины многие не понимают.

Основная мысль Хоукинса в том, что надо разрабатывать не искусственный интеллект, даже в самом названии которого отражено его отличие от настоящего, а симулировать как работает реальный, настоящий интеллект. Кстати, примерно это пытался в свое время сделать Ботвинник в своем проекте "Пионер" (тут есть подбор материалов по этому проекту).

Я лет 15 этой темой не интересовался, но похоже что как минимум на середину 2000х прорыва в этой области не было. Все увлеклись "забрасыванием железом". Сейчас уже вроде симулируют довольно крупные нейронные сети, повторяющие нейронные связи участков мозга, но насколько это относится к интеллекту -- трудно сказать. Дочитаю Хоукинса -- поиграюсь с HTM.

Date: 2012-12-21 03:30 pm (UTC)
From: [identity profile] yantayga.livejournal.com
> разбирается в шахматах
А что значит - "разбирается"?

Date: 2012-12-21 03:38 pm (UTC)
From: [identity profile] ushastyi.livejournal.com
Понимает. Что значит "понимает"? В применении к шахматам, например, есть ряд шахматных этюдов, которые можно решать не только на доске 8x8, но и на доске любой конечной размерности. Человек решит легко, он "понимает". Deep Blue -- вряд ли, программой это не предусмотрено.

Date: 2012-12-21 05:12 pm (UTC)
From: [identity profile] shabunc.livejournal.com
Если бы китаец задавал совершенно произвольные вопросы про произвольный текст, а испытуемый находил инструкции, позволяющие ответить на любой вопрос - тогда да.

И тот факт, что человек внутри коробчки не знает китайского меня бы никак не заботил. Тот, кто динамически поставляет инструкции - знает.
А я общаюсь с коробочкой.

Date: 2012-12-21 06:34 pm (UTC)
From: [identity profile] ushastyi.livejournal.com
Никто не мешает написать инструкцию на все случаи, так как их конечное число (скажем, при ограниченном размере текста). Вопрос именно в том, что "снаружи" это может выглядеть как интеллект. Хотя даже на интуитивном уровне интеллектом не является.

Date: 2012-12-21 10:35 pm (UTC)
From: [identity profile] shabunc.livejournal.com
Если у нас такой мир, где возможно написать инструкцию на все случаи - то для меня, опять-таки, как для наружного пользователя этой комнаты, этой чёрной коробки - нет принципиальной разницы, "подлинный" там внутри китаец или нет.

Date: 2012-12-24 07:25 am (UTC)
From: [identity profile] ushastyi.livejournal.com
Для наружного наблюдателя -- нет. Но мы же о сути вещей говорим.

В "наружности" наблюдения, кстати, и состоит Тест Тьюринга (http://ru.wikipedia.org/wiki/Тест_Тьюринга), одним из контр-примеров к которому есть Китайская комната.

Другой пример, из недавнего, -- Корчеватель (http://lurkmore.to/Корчеватель).

Во всех случаях суть в том, что манипулируя символами в рамках синтаксических и морфологических правил можно получить семантически правдоподобный текст (в случае с шахматами -- партию). При этом машина "не понимает" семантику, то есть смысл символов, а только их абстрактные взаимосвязи.

Date: 2012-12-24 07:44 am (UTC)
From: [identity profile] shabunc.livejournal.com
смотрите, что получается, если ориентироваться на ваш пост.
"Представьте, - говорит некто, ну, например, Хоукинг, - сидит мужик в комнате, на все случаи жизни ему пишут инструкции, он их выполняет, все думают, что мужик что-то знает, а это не так. Вот так и большинство систем, которые мы называем интеллектуальными, например, Deep Blue играет в шахматы, а сам в шахматах дуб дубом. Отсюда вывод: нужно симулировать настоящий интеллект, чтобы Deep Blue хорошо разбирался в шахматах".

А я не понимаю, почему, как собственно, из А вытекает B. Если мы действительно будем сильно развиваться в плане искусства писать инструкции - а так сейчас по факту и происходит, если мы всё больше кейсов покроем, пусть даже если заглянуть под капот, а там switch с 10e8 case-ами, и больше ничего - то я не понимаю, почему машина должна что-то "понимать" - в понимаемом нами смысле понимать )

Есть мнение, что мы зайдём в тупик в какой-то момент. Ну то есть без интеллекта в "настоящем" смысле, например, мы достигнем какого-то предела, после которого качество переводов улучшить не сможем. Но это, во-первых, не следует из вашего примера, во-вторых, пока предпосылок бить тревогу нет. Как раз наоборот.

Date: 2012-12-24 08:54 am (UTC)
From: [identity profile] ushastyi.livejournal.com
Вопрос именно в том, достаточно ли покрыть все про все инструкциями, чтобы говорить, что система обладает интеллектом. Возьмем тот же Deep Blue -- по объему памяти и вычислительной мощности он на многие порядки превосходит человека, даже Каспарова. Тем не менее выигрывает с трудом, а если ему "подсунуть" нестандартную задачу, например, шведские или фишеровские шахматы, или этюды на доске 100x100 скажем, то он "не сможет". Инструкции нет (в случае с этюдами на большой доске -- памяти не хватит). У человека тоже нет инструкции, но изучив правила, он легко начинает играть в новую игру.

Пример с переводами. Вы легко поймете любой русский диалект, и, наверное, довольно сносно можете понимать украинский, зная русский. Частично сможете понять даже сербский или болгарский, даже если раньше их не слышали. Соответственно, Вы сможете перевести это на английский. Но никакой автоматический переводчик, который "знает" только русский, с такой задачей не справится. Он "не понимает" межязыковых связей, "не понимает" контекст, то есть вы значение многих слов можете угадать из семантики контекста, что невозможно для современных систем перевода, которые эту семантику "не понимают". Что умеют системы перевода, это просканировать корпус текстов и построить вероятностные модели появления слова в сочетании с одними или другими. Это в некоторых случаях помогает. Но человек контекст именно понимает, а не оценивает вероятностно.

Я тут примерно пересказываю предисловие книги, именно об ущербности метода грубой силы пишет Хоукинг, но я с этим полностью согласен. Пока ничего лучше нет -- это работает. Но опасность в том, и это относится не только к AI, что возможность достаточно дешево масштабировать вычисления задвигает на периферию исследования того, как эти вычисления можно сокращать. Все больше людей склонны скормить задачу тому же хадуповскому кластеру на Амазоне, нежели крепко подумать и написать эффективный алгоритм, не требующий больших вычислений. И т.д.

Profile

kaipa: (Default)
kaipa

April 2017

S M T W T F S
       1
2345678
9101112131415
16171819202122
23242526272829
30      

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 20th, 2025 06:45 am
Powered by Dreamwidth Studios