?

Log in

No account? Create an account

Previous Entry | Next Entry

В 1950 году один из основоположников кибернетики Алан Тьюринг сформулировал в качестве критерия определения разумности компьютера возможность поддержания компьютером диалога с человеком, при котором его собеседник не в состоянии понять, с кем разговаривает – с человеком или компьютером https://ru.wikipedia.org/wiki/%D2%E5%F1%F2_%D2%FC%FE%F0%E8%ED%E3%E0.

Современные компьютерные системы вплотную подошли к решению данной задачи – по-крайней мере, системы типа IBM Watson могут демонстрировать впечатляющие диалоги с пользователями и задавать уточняющие вопросы, а чатботы типа Жени Густмана – поведение, вполне характерное для подростков, проводящих существенное время жизни в чатах.

Вместе с тем, способность компьютеров в самое ближайшее время надежно пройти тест Тьюринга, а в особенности, используемые для этого алгоритмы заставляют усомниться в надежности теста Тьюринга в качестве критерия разумности машин.

Как следствие, необходимо повторно задавать вопрос – может ли быть предложен тест, который бы надежно идентифицировал разумное поведение компьютерной программы?

Для ответа на этот вопрос необходимо более четко идентифицировать те критерии, по которым можно судить о разумном поведении.

Википедия выделяет следующие критерии разума (https://ru.wikipedia.org/wiki/%D0%E0%E7%F3%EC):

  • самоидентификация и саморазвитие;

  • способность адаптироваться к новым ситуациям;

  • способность к обучению на основе опыта;

  • понимание и применение абстрактных концепций;

  • использование своих знаний для управления окружающей средой.

К слову, из представленных определений следует, что не вся деятельность человека требует разумного поведения. Философы даже выделяют отдельный подвид разума – рассудок, и рассудочную деятельность как использование ранее сформированной системы социальных правил, в том числе с накоплением опыта их применения и даже минимальными обратными связями, корректирующими поведение, но без необходимости существенной перестройки указанной системы правил.

Я бы даже сказал, что разумную деятельность от рассудочной отличает пассионарность личности, хотя, разумеется, вовсе не каждый пример пассионарного поведения может претендовать на разумность.

Несложно заметить, что большинство диалогов в человеческом сообществе также не требуют разумной деятельности, а только рассудочной – т.к. правила ведения таких диалогов сложились и подвержены лишь небольшим изменениям.

Как следствие, статистические методы выделения и применения этих правил, несомненно, позволят современным компьютерным системам в ближайшее время научиться вводить в заблуждение человека, говорящего с ними.

Если уже даже начинающим командам предлагается попытать счастье (в частност, сегодня в Сколково будет проведен чемпионат по прохождению теста Тьюринга), то чего уж говорить про промышленные системы.

Однако согласно вышесказанному мы идентифицируем лишь наличие рассудка у компьютеров, а вовсе не разума.

И как быть тогда с последним? Какой тест можно предложить для идентификации возможностей компьютера не просто соблюдать систему правил, но и формировать ее не хуже других людей, учитывать интересы и объединять усилия участников для достижения общих целей?

Обращаясь к человеческой стороне вопроса, необходимо идентифицировать такое поведение, которое могло бы однозначно свидетельствовать о том, что не только рассудочная деятельность стоит за личностью, демонстрирующей указанное поведение, но и соответствующая этому поведению воля, убежденность и самостоятельность в принятии решений.

В качестве примера можно привести диалоги, которые имеют место при проведении деловых переговоров. Две организации в лице своих представителей, понимающих весь комплекс интересов стейкхолдеров, пытаются договориться о взаимовыгодном сотрудничестве. Очевидно, именно здесь проявляются все основные аспекты разумной деятельности, в т.ч. адаптивность к новой информации, моделирование и интерпретация моделирования реального мира, использование знаний для получения необходимых для себя преимуществ.

И если придумывать тест, в котором информационной системе необходимо будет осуществлять деловые переговоры с целью получения преимуществ, то для такого теста необходима среда, имеющая все возможности для роста статуса и формирования организационных структур с участием людей. При этом бы хотелось отделить тестовые условия от условий возникновения сильного ИИ по причинам, неоднократно обсуждавшимся, в т.ч. изложенным мною ранее http://sergeyvi.livejournal.com/43788.html.

И такая среда, несомненно, есть. Это среда современных сетевых игр, где на конкурентной основе происходит соревнование, но не просто отдельных игроков, но кланов и альянсов. Рост репутации альянса, и рост статуса игрока в альянсе – фактически и есть признак разумной деятельности этого игрока.

Таким образом, можно предложить следующий тест.

Формируется пул разноплановых сетевых игр (3-5) с ярко выраженной кланово-альянсной структурой. Для того, чтобы доказать разумность поведения, интеллектуальной системе необходимо зарегистрироваться и начать играть во всех указанных играх, войти в альянсы, не входящие в топ-100, занять в них лидирующее положение (руководитель или один из заместителей), и вывести их в топ-10.

При этом на действия в игре для соблюдения конкурентнх условий с игроками-людьми должны быть наложены естественные человеческие ограничения – например, не более 2 действий в секунду, не более 100 в 10 минут, не более 8 часов игрового времени в день, не более 160 знаков в минуту скорость печати в чатах.

Что он покажет? Во-первых, способности коммуницировать с участниками. Но если в тесте Тьюринга было необходимо всего лишь соблюдать сложившиеся правила ведения диалога, то в таком тесте диалог – не самостоятелен, он – лишь инструмент для достижения главной цели игрока – освоение механизмов игры, и не только за счет написанных в инструкции правил, но и за счет лучших практик других игроков.

При этом для обретения репутации «своего парня» (а без этого, полагаю, крайне сложно стать руководителем альянса) диалоги должны содержать существенную часть коммуникаций не по игре, для чего необходимо выполнение всех требований, также необходимых для выполнения теста Тьюринга.

Во-вторых, способность стратегического планирования, и адаптивного изменения стратегии в зависимости от поведения других игроков.

И в-третьих, способность формализовывать неформальный опыт – наблюдение поведения других игроков и выделение правил, в соответствии с которыми они действуют, причем как непосредственно – из наблюдений, так и из коммуникаций с членами своего альянса, и использовать этот опыт при формировании действий альянса.

Как следствие, полагаю, что прохождение указанного теста позволит в полной мере идентифицировать разумное поведение информационной системы. Замечания и комментарии приветствуются.


Comments

( 4 comments — Leave a comment )
romik86
Jun. 7th, 2015 09:20 am (UTC)
Интересно, насколько такой ИИ будет обладать самосознанием, и будет ли его агрессивность зависеть от агрессивности игр?
sergeyvi
Jun. 18th, 2015 09:52 am (UTC)
Самосознание в его трансцедентальном смысле - не познаваемо, поэтому в этом смысле на вопрос я ответить не могу. С утилитарной точки зрения, в контексте, который я определил здесь http://sergeyvi.livejournal.com/43788.html, успешное прохождение данного теста, полагаю, потребует работающего модуля ГЕВ, который полностью основан на сравнении поведенческой модели робота как субъекта отношений и поведенческих моделей других субъектов.

Т.е. говоря по-простому, ИИ придется сопоставлять собственную функциональность с функциональностью других игроков, на основе чего должны генерироваться возможности по саморазвитию. Очевидно, это и есть самосознание в его утилитарном (прикладном) смысле, т.е. поведение, которое внешне не будет отличаться от человеческого. А если оно действует как человек, а человек обладает самосознанием, то, вероятно, оно тоже обладает самосознанием, хотя мы его никак и не наблюдаем.

А вот насчет агрессивности тут вопрос сложный. Очевидно, для победы в игре нужна агрессивность. Однако действия в альянсе, особенно в ситуации открытого контура, когда альянс можно сменить, можно туда звать новых игроков и т.п. требует от интеллектуальной системы формирования общей репутации в игре - иначе довольно легко сплотить против себя все остальные альянсы, которые объединившись уничтожат тебя.

Поэтому в кланово-альянсных играх ИИ придется учиться соразмерять агрессию с коллективным взаимодействием, и использовать разные методики работы, в том числе обучиться этике игры. Отсюда требование к наличию этического модуля - МЭМ, что полностью укладывается в предложенную мною выше модель.

Другое дело - конечно состав этических правил. Крайне важно, чтобы в игре не было возможности победить всех полностью задавив участников силой. Это снизит риски выбора сверхагрессивной тактики игры и формирования соответствующих правил поведения. Впрочем, по имеющейся у меня информации, таковы большинство существующих сетевых игр, так что этот критерий, полагаю, выполняется.

Для исключения тактики, направленной на устранение отдельных игроков, также желательно, чтобы в игре не была предусмотрена тотальная гибель игроков, а только нанесение очень значимого ущерба, но большинство современных сетевых игр ее и так не предусматривают.
bvn_mai
May. 5th, 2016 09:33 am (UTC)
Говорить всерьез о критерии Тьюринга можно было в конце 50 годов прошлого века. Сейчас можно лишь говорить о полезности информации, которую формирует "партнер" с другого конца провода, и как лучше распорядится этой информацией, а использует при этом он ИИ или ЕИ - уже перестает быть актуальным.
unlimmobile
Dec. 13th, 2018 03:04 pm (UTC)
***Википедия выделяет следующие критерии разума*** Замечания и комментарии приветствуются.
Замечание одно, и оно же полностью закрывающее тему: если использовать критерий и определение из википедии, то это не только уже заранее ограничивать рассуждения цензурными соображениями, но и сразу занимать строку аутсайдеров, использующих доктрины позавчерашних веков)))

Edited at 2018-12-13 03:05 pm (UTC)
( 4 comments — Leave a comment )