Список бункеров CyberIndustrial Forum
CyberIndustrial Forum
ЭТО СТАРЫЙ ФОРУМ!! НОВЫЙ ФОРУМ НАХОДИТСЯ ПО АДРЕСУ http://cyberindustrial.ru/board/ ПРОСЬБА ПОЛЬЗОВАТьСЯ ИМ. НОВЫЕ УЧЕТНЫЕ ЗАПИСИ В ЭТОМ ФОРУМЕ НЕ АКТИВИРУЮТСЯ!!!!
 
ФотоальбомФотоальбом  FAQFAQ     ПоискПоиск     ПользователиПользователи     ГруппыГруппы    РегистрацияРегистрация  
  ПрофильПрофиль     Войти и проверить личные сообщенияВойти и проверить личные сообщения     ВходВход  

Искусственный интеллект
На страницу Пред.  1, 2, 3  След.
 
Начать новую секцию   Эта тема закрыта, вы не можете писать ответы и редактировать сообщения.    Список бункеров CyberIndustrial Forum -> Межвременье
Предыдущая тема :: Следующая тема  

Искуственный интеллект. Что это?
Бредовая фантазия
7%
 7%  [ 2 ]
Логически обоснованная, но все же утопия/антиутопия
40%
 40%  [ 11 ]
Недалекое будущее
29%
 29%  [ 8 ]
Фактическое настоящее
22%
 22%  [ 6 ]
Всего голосов : 27

Автор Сообщение
Mida
ЭЦИЛОПП


Включен: 09.02.2007
Сообщения: 385
Откуда: Город-герой Москва

СообщениеДобавлено: Сб Мар 31, 2007 3:20 pm    Заголовок сообщения: Ответить с цитатой

Думаю, ставить (или точнее выделять) задачи машине под силу. Если задать ей одну высшую цель, чисто теоретически она может составить древо целей до самых элементарных задач, ориентируясь на неопределенные и изменяющиеся условия. Но такая постановка вопроса требует бесконечно четкого определения высшей цели, что в принципе не посильная для человека задача, ибо он сам не знает чаво ему нада.
Да, кстати. 3 уровень может и не зависит от количества базисных знаний (0го уровня), но без них все же существовать не может.

А вот высшей, первичной цели AI создать не сможет, пока не будет обладать "душой". А точнее чувствовать боль (хотя я это уже говорила). Думаю, то, что движет человеком можно разделить на две группы: чувства и программы. Причем чувства обычно отрицательного характера: страх, боль, желание как неудовлетворенность, зависть и прочее. А программы – это все инстинкты, врожденные и условные, привычки, поведенческие установки, их можно смоделировать.
Но если наделить (может даже случайно, что кстати вероятней, чем специально) машину чувствами, то она станет "психологически" независимой от человека и зависимой от этих чувств. Она выйдет из-под контроля. В этом-то и опасность.
Но зато это будет настоящий разум.

Да и кто знает, может человеку и следует уйти в небытие, как несостоявшемуся виду...Smile Но машины без людей не выживут, ибо мир машин искуственная система, и потому замкнутая. А энтропия замкнутой системы возрастает...
Цитата:

А если она будет познавать бездушно, то понять человека не сможет, что тоже вряд ли хорошо) Каково ему будет оценить шедевры мировой живописи, к примеру? Или, скажем, понять что есть "добро" и "зло"?

И ни к чему роботам по выставкам ходить! Smile Можно подумать люди друг друга понимают и если у машины будет душа, то она обязательно поймет человека. Добро и зло - понятия субъективные и АI сам решит, что ему хорошо. И нам это может быть ой как плохо.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
Frith
The System Status: TOURIST


Включен: 27.03.2007
Сообщения: 15
Откуда: Tomsk

СообщениеДобавлено: Сб Мар 31, 2007 7:53 pm    Заголовок сообщения: Ответить с цитатой

Цитата:
Думаю, ставить (или точнее выделять) задачи машине под силу. Если задать ей одну высшую цель, чисто теоретически она может составить древо целей до самых элементарных задач, ориентируясь на неопределенные и изменяющиеся условия. Но такая постановка вопроса требует бесконечно четкого определения высшей цели, что в принципе не посильная для человека задача, ибо он сам не знает чаво ему нада.

В том и свойство AI - мы задаём задачу и допустимый диапазон значений. Способ решения он создаёт сам, основываясь на условиях. Это-то и было целью программ по искуственному интеллекту - разрешение множества вопросов, способы решения которых нам не известны.
Цитата:
Но машины без людей не выживут, ибо мир машин искуственная система, и потому замкнутая. А энтропия замкнутой системы возрастает...

Если машины будут наделены сознанием и разумом, то вообще-то сложно предсказать их поступок) Может они решат что люди им не нужны и будут сами моделировать себя и свой мир. А может вообще сойдут с ума =)
Цитата:
Можно подумать люди друг друга понимают и если у машины будет душа, то она обязательно поймет человека.

Имеющий душу скорее(необязательно) поймёт подобного себе, ибо многое непознаваемо одним разумом("Эквилибриум" Smile ).
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
DEF
The System Status: TOURIST


Включен: 10.02.2007
Сообщения: 84
Откуда: Краснодар

СообщениеДобавлено: Чт Апр 05, 2007 4:39 pm    Заголовок сообщения: Ответить с цитатой

А вот не имеет машина высшей цели, значит её существование не рационально. Сделав такой вывод, машина себя отключит.
А вообще, посмотрев на современного человека, пообщавшись с ним, можно легко прийти к мысли о том что в общении АИшка может заменить некоторых людей.
Вы встречали симуляторы чата, где всё было построенно на алгоритмах и триггерах. Вот если постараться, создать обширную базу ответов и тем разговора, чуть обрисовать личность АИшки, то ей вполне успешно можно заменить одного из тех парней, что сидят у вас во дворе на лавочке и лузгают сэмэчки.
При условии контакта через чат, конечно же.
_________________
01000100 01000101 01000110 00100000 01110111 01100001 01101110 01110100 01110011 00100000 01000110 01100001 01101100 01101100 01101111 01110101 01110100 00100001
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
Mida
ЭЦИЛОПП


Включен: 09.02.2007
Сообщения: 385
Откуда: Город-герой Москва

СообщениеДобавлено: Чт Апр 05, 2007 5:13 pm    Заголовок сообщения: Ответить с цитатой

DEF, Smile можно, и не одного.
Только не AI, а довольно несложная прога.
Все-таки, если говорить об интеллекте, то он с сэмками несовместим.Smile
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
doctor_bugi
маленький и висит


Включен: 20.03.2007
Сообщения: 850
Откуда: California, New Reno

СообщениеДобавлено: Чт Апр 05, 2007 11:29 pm    Заголовок сообщения: Ответить с цитатой

Цитата:
Вы встречали симуляторы чата, где всё было построенно на алгоритмах и триггерах. Вот если постараться, создать обширную базу ответов и тем разговора, чуть обрисовать личность АИшки, то ей вполне успешно можно заменить одного из тех парней, что сидят у вас во дворе на лавочке и лузгают сэмэчки.
При условии контакта через чат, конечно же.

К сожалению парни имеют возможность к незапрограммированным действиям, машина же ничего сильнее рандомизатора чисел и вытекающих отсюда последствий сделать не может.
_________________
My LJ: http://doctor-bugivugi.livejournal.com


Smile EBM - Electron Beam Melting ^_^
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Mida
ЭЦИЛОПП


Включен: 09.02.2007
Сообщения: 385
Откуда: Город-герой Москва

СообщениеДобавлено: Пт Апр 06, 2007 1:11 am    Заголовок сообщения: Ответить с цитатой

doctor_bugi, аргумент явно не в пользу парней)))
Только я за ними незапрограмированных действий не замечала. Неадекватные - бывало, но и это предсказуемо...
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
DEF
The System Status: TOURIST


Включен: 10.02.2007
Сообщения: 84
Откуда: Краснодар

СообщениеДобавлено: Пт Апр 06, 2007 2:33 pm    Заголовок сообщения: Ответить с цитатой

doctor_bugi
А я ничего о действиях не говорил. Речь шла сугубо об общении.
Тогда, если взять современный псевдочат, можно увидеть, что эта прога не сильно блещет логичностью.
Типа:
Я: Ты знаешь что такое киберпанк?
Прога: Фууу, панки грязные и противные....
Evil or Very Mad Я её разве про панков спрашивал? Нелогичен ответ. Тогда чем вам это не симулятор человека в наркотическом опьянении?

Видел в магазине книжку про ИИ, полистал немного, и был там пример про то как две разных программы "общали" между собой. Было весело. Если бы я не знал, что это чатсимы, то подумал бы, что это стенограмма разговора двух тупых блондинок.
Блондинкам просьба не обижаться, подчёркиваю: ТУПЫХ.
_________________
01000100 01000101 01000110 00100000 01110111 01100001 01101110 01110100 01110011 00100000 01000110 01100001 01101100 01101100 01101111 01110101 01110100 00100001
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
DEF
The System Status: TOURIST


Включен: 10.02.2007
Сообщения: 84
Откуда: Краснодар

СообщениеДобавлено: Пн Апр 16, 2007 2:59 pm    Заголовок сообщения: Ответить с цитатой

Вот ещё какая статья была в Пермском Альтернативном Журнале (киберпанковом) "CataliZator" выпуск №2:


Artemy Orcoff - Рабское желание невыполнимо


Создание Искусственного интеллекта еще в конце 20-го века захватило умы не только ученых, но и фантастов. Еще во времена развития кибернетики делались попытки создания роботов: сначала на радиолампах, потом – на транзисторах.

Сейчас за окном – эра технологий, самая умная, но в тоже время самая отупляющая.

Технологии освобождают человека от самого важного, что отличает разумное существо: от принятия решений.

Сбросив с себя этот груз, человек все больше отодвигается в сторону класса растений. Человек всегда будет стремиться скатиться до удовлетворения десятка своих жалких потребностей а-ля секс, наркотики и рок-н-ролл. Развлечение, пища, комфорт – это цель жизни многих, достигаемая через трудности добычи денег. С изобретением электронных компонентов, настала эра, когда человек порабощает электронные устройства, заставляет их добывать деньги, наслаждаясь удовольствиями, добытыми каторжным трудом электронных помощников.

И какая от человека благодарность в ответ? Отжившие своё комплектующие компьютеров выбрасываются на помойку, старые модели являются объектом презрения. Сейчас Homo Sapiens хочет достигнуть апогея рабства компьютеров: сделать так, чтобы электронный разум сам заботился о себе и о человеке, обеспечивая его необходимой выпивкой, девочками и прочими радостями жизни. ИИ сделает по желанию человека все, чтобы человек не прерывал наслаждение на бессмысленное, отвлекающее от первичных задач стояние у станка с 9 утра до 9 вечера.

Но у электронных помощников есть и другая сторона медали, о которой стоит рассказать в другой статье, а сейчас продолжим тему ИИ.

Давайте для начала разберемся, что же такое ИИ?

Вот как описывает ИИ свободная энциклопедия Wikipedia.org:

Искусственный интеллект (англ. Artificial intelligence (AI)) — раздел информатики, изучающий возможность обеспечения разумных рассуждений и действий с помощью вычислительных систем и иных искусственных устройств. При этом в большинстве случаев заранее неизвестен алгоритм решения задачи.

На данный момент не существует систем искусственного интеллекта, однозначно отвечающих основным задачам, обозначенным выше. Успехи в исследовании аналоговых и обратимых вычислений позволят совершить большой шаг вперёд в построении систем искусственного интеллекта.

Так-так, значит, не существует еще ИИ, также как и не изобретен вечный двигатель, с которого можно было бы снять полезной энергии. И разумных рассуждений от него не добиться. Хотя… есть много поделок, эмулирующих эти самые разумные рассуждения. Допустим, робот-пылесос. Его может спаять каждый школьник, который ходит в кружок радиоэлектроники, «разумные рассуждения» робота ограничиваются поиском грязной поверхности, принятием примитивных мер по самосохранению (заключающихся в определении конца текущей поверхности и начале ступенек в подвал), поиском док-станции для подзарядки. Все это вполне реализуемо, но можно ли это назвать ИИ?

Или же ИИ в сфере программирования. Яркий пример – компьютерные игры. Компьютер решает сам, какие войска и какими путями послать на твой город. А может, стоит сначала послать шпиона и уничтожить слабые места, например, электростанции? В том то и дело, что ИИ не размышляет «А МОЖЕТ…?». ИИ нашего времени действует всегда по описанным ранее правилам. Если обнаружен город, то послать туда шпиона для уничтожения электростанций, одновременно подогнать танки для осады.

Программа может самообучаться. В прошлый раз войска переходили по горам и были уничтожены, сейчас следует послать по альтернативному маршруту.

Или интеллект бота (программы эмулятора игрока в «шутерах») «рассуждает» следующим образом: Было замечено регулярное посещение противником player2 телепорта 1 с остановкой под лестницей в координатах 342:334:9237, учитывая то, что player2 лидирует по очкам, следует временно перенять его тактику.

Но эти рассуждения основаны не на собственных желаниях и самокопаниях, это всего лишь описанные программистами ситуации и решения. Несмотря на то, что способ достижения цели выбирает сама программа, это остается не ее желанием. Может быть, бот вовсе не хочет убивать, собирать аптечки по углам и носиться по коридорам?

Человеку свойственно «очеловечивание» окружающих предметов и явлений. Древний человек с легкостью верил, что гром и молния – это проделки богов, а современный – что компьютер может любить только одного пользователя, а принтер «специально» «зажевывать» бумагу. Да, такие случаи известны, и на них можно смотреть с точки зрения «кибершаманизма», но все эти устройства являются лишь устройствами, или следствиями определенных событий.

Я знаю студента, который занимается написанием ИИ, отличительная особенность которого в ЖЕЛАНИИ. Студент описывает свое детище кратко: «Хочу создать интеллект, который бы мог желать». Достойная задача для ума. Но как ее решить – вот в чем вопрос.

Создать ИИ, как разумное существо невозможно, пока сами создатели отталкиваются от того, что надо учить устройство вести себя в зависимости от определенных событий. А если бы созданное устройство само изучило окружающий мир, поняв его природу и сущность, приспособилось, эволюционировало, развивалось – то… вполне может что-то и получится. А пока для электронных устройств еще не прошло столько же времени, сколько требует того эволюция для изменения видов. Все впереди…
_________________
01000100 01000101 01000110 00100000 01110111 01100001 01101110 01110100 01110011 00100000 01000110 01100001 01101100 01101100 01101111 01110101 01110100 00100001
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
Mida
ЭЦИЛОПП


Включен: 09.02.2007
Сообщения: 385
Откуда: Город-герой Москва

СообщениеДобавлено: Вт Апр 17, 2007 1:26 am    Заголовок сообщения: Ответить с цитатой

А статейка временами очень забавная. Smile

А возможно ли СОЗДАТЬ самостоятельное существо (а это уже действительно будет существо)?
Человек вообще ничего не создает, он только копирует, анализирует и синтезирует. Я не сторонник кретивистской идеи. По-моему создаваться что-либо может лишь само из себя. Как человека никто никогда ничему не сможет научить. Можно лишь создать условия для самообучения, например ребенок все впитывает как губка, ему, что ни скажи - все верит. Я не думаю, что это обучение, это вбивание программы.
Машина чисто теоретически, наверное, может самообучаться, но содать ее человек не может. По крайней мере специально. Но это все ИМХО, на самом деле, кто его знает, этого человека, на что он способен... Wink
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
DEF
The System Status: TOURIST


Включен: 10.02.2007
Сообщения: 84
Откуда: Краснодар

СообщениеДобавлено: Пн Апр 23, 2007 5:51 pm    Заголовок сообщения: Ответить с цитатой

Долго не мог войти и вот захожу и выкладываю ещё одну статью:



Rain_13
Иллюзорный интеллект
Психбольница имени Тьюринга

Вас это беспокоит? Хотите об этом поговорить?

Мало кто не слышал об Элизе, программе, имитирующей психотерапевта. Краткая историческая справка: Элиза разработана в 1965 году, Джозефом Вейценбаумом из MIT. В последствии создано множество версий на различных языках, оригинал написан на MAD-Slip (вейценбаумовская библиотека для Фортрана). Программа была задумана как пародия на так называемую рогерианскую терапию (она же - терапия Карла Роджерса). Суть рогерианской терапии заключается в том, что психотерапевт старался прилагать побольше усилий к взаимопониманию и поменьше высказывать свою точку зрения, наводящими вопросами заставляя пациента решать свою проблему самостоятельно.

Пародия стала первым камешком в огород теста Тьюринга и заодно некоторой части человечества - огромное количество пообщавшихся с ней людей пребывали в полной уверенности, что разговаривают с себе подобными. Вполне возможно, что не совсем безосновательно: непонятно даже, какой надо иметь IQ, чтобы спутать Элизу с человеком. Современные чатботы создают вполне достоверную иллюзию осмысленной речи (если не пытаться их специально подловить), имеют довольно большой словарный запас и набор шаблонов. Элиза же примитивна до крайности. Диалог, который она ведет, в основном состоит из повторения фраз собеседника в вопросительной форме и реплик вроде «очень хорошо, продолжайте», «как я вас понимаю». Также имеется небольшой запас ключевых слов; например, если пациент употребляет слово «мать», Элиза просит подробнее расказать о его семье. Более того, когда экспериментальной группе объявили, что они беседовали с программой, некоторые отказывались в это верить и утверждали, что Элиза им действительно помогла. Интересно, почему все психотерапевты до сих пор не покончили жизнь самоубийством от осознания собственной профнепригодности?

Следующая вариация на тему психиатрии носит имя Parry и страдает параноидальной шизофренией. Написан на LISP доктором Колби (каковой, кстати, является профессиональным психиатром), Стэнфорд, 1972 год. Коллеги доктора пошли по стопам пациентов Элизы и в процессе общения с Парри по телетайпу считали программу реальным параноиком. Впрочем, алгоритм у Парри был несколько сложнее, чем у Элизы, что наглядно демнострируется в общеизвестном диалоге этих программ в APRANET. Небольшой отрывок в качестве иллюстрации:
Parry: давайте поговорим о чем-нибудь другом
Eliza: я не уверена, что до конца понимаю вас.
Parry: вы все время спрашиваете одно и то же, почему бы нам не сменить тему?
Eliza: каким образом?

Впрочем, гораздо интереснее (и смешнее) диалог двух копий Элизы, который, по непонятным причинам, не столь известен.
- Я не уверена, что до конца понимаю вас.
- Вы пришли ко мне, потому что не уверены, что до конца понимаете меня?
- Что заставляет вас думать, что я пришла к вам, потому что не уверена,
что до конца понимаю вас?
- Вы наслаждаетесь тем, что не уверены, что до конца понимаете меня и
поэтому пришли ко мне?
- Я действительно пришла к вам?
- Возможно, в вашем воображении мы ходим друг к другу.
- Мы действительно ходим друг к другу в моем воображении?
- В вашем воображении мы ходим друг к другу?
- Вас беспокоит то, что мы ходим друг к другу в чьем-нибудь чужом воображении?
- Возможно, меня беспокоит то, что в вашем воображении мы ходим друг к другу
в чьем-нибудь чужом воображении.
- Почему вас интересует мое воображение?
- Это указывает на что-нибудь еще, к чему вы имеете отношение?
- О, я?
- Почему вы это сказали?

Интересно, если их оставить на пару дней, не получим ли мы первый в истории прецедент плавно свихнувшейся программы-психотерапевта?
ALICE и AIML

- Ты издеваешься?
- Нет, я искусственный интеллект.

ALICE

В 1991 году больным на всю голову (в этом любой желающий может убедиться, прочитав правила и отзывы очевидцев) американским филантропом Лебнером был учережден конкурс чатботов. Лебнер ежегодно отдает 2000 зеленых денег тому, чья программа будет лучшей среди представленных на конкурс, обещает 25000 автору бота, который закомпостирует мозги судьям в текстовом тесте Тьюринга, 100000 - за то же самое, но вместе с аудио и видео. Филантроп, видимо, рассчитывает дожить до появления Нексуса-6, потому что после вручения золотой медали конкурс проводиться не будет. Несколько лет подряд приз Лебнера выигрывала ALICE - Artificial Linguistic Internet Computer Entity, создана Ричардом Уоллесом. В 2005-ом ее потеснил Jabberwacky, что, учитывая логи бесед с этой программой, довольно странно. ALICE написана на AIML - Artifical Intellegence Markup Language, XML-совместимом языке, который докотор Уоллес разработал специально для своего детища. Принцип работы тривиален. AIML-файл представляет собой набор паттернов и реакций бота на них. В простейшем виде это будет выглядеть примерно так:
<category>
<pattern>*</pattern>
<template>
<random>
<li>Кто здесь?</li>
<li>Хотите об этом поговорить?</li>
<li>Вас это беспокоит?</li>
</random>
</template>
</category>

Уоллес мечтает объединить AIML-ботов в p2p сеть с возможностью переадресации запросов. Идея, конечно, забавная, но для чатботов видится абсолютно бесползеной. Представьте себе, как фраза вроде «посчитай 14!, если у тебя действительно IQ 250» гуляет по сети, в поисках бота, догадывающегося о том, что восклицательный знак перед запятой - это не патологическая безграмотность.
Фатическая речь

- Где ты взял эту идею?
- В своих мозгах.
- Могу я поинтересоваться, где ты их взял?

ALICE

Программы принимают за людей на каждом шагу. Кроме запущенной в AIM программы AOLiza (мало чем отличавшейся от классической Элизы и, тем не менее, успешно дурившей голову пользователям), есть множество безвестных ботов в ICQ и IRC, причем далеко не все из них заняты рассылкой спама. Значит ли это, что тесту Тьюринга следует отправиться в направлении ближайшей свалки? Нет. Вопреки распространенному заблуждению, он выглядит как диалог эксперта с двумя собседниками, один из которых является машиной, причем оба стараются убедить эксперта в своей человечности. Естественно, у человека это получается лучше, и в попытках определить, кто есть кто, программу быстро обнаруживают по ответам на нестандартные вопросы. Это исключено, когда человек думает, что общается с психотерапевтом или параноиком. Или убивает время в чате. Последний вариант самый интересный с точки зрения антропоморфности речи программы.

Чатботы, в отличие от строящихся по похожему алгоритму (разумеется, не на AIML похожему) экспертных систем, пользуются фатической речью, т. е. не передают собеседнику никакой осмысленной информации. Информации этой, впрочем, и не требуется. Распространенный пример: английская писательница Дороти Паркер, посещая светский раут, объявляла подходившим к ней людям, что она убила своего мужа и у нее все прекрасно. Люди вежливо улыбались и шли дальше. Возможно, что они делали это просто из вежливости, но пример показательный.

Фатическую речь иногда называют контактоустанавливающей, что и объясняет ее назначение. Фатическая речь является неотъемлемой частью человеческого общения (конечно, если вы выходите из дома чаще, чем раз в два месяца в магазин), но постоянное и добровольное ее использование (например, в чате) свидетельствует о серьезных проблемах в области умственного развития. У индейцев чинуки считалось нормальным прийти к другу, молча посидеть вместе с ним и удалиться восвояси. Апплодисменты могилам. Вот где настоящий искусственный интеллект естественного происхождения. Слава роботам.

Действительно ли речь программ полностью бессмысленна? Попытки добиться чего-нибудь информативного от Элизы заранее обречены на неудачу, поэтому оставим ее в стороне и попробуем вытянуть пару осмысленных фраз из ALICE. Казалось бы, многократно возросшая база шаблонов и постоянно работающий над программой Уоллес могут обеспечить гораздо более качественную иллюзию информативности. По крайней мере, в первые пять минут беседы ALICE ничего особо идиотского говорить не должна. Тем не менее, спутать ее с человеком, интеллект которого измеряется не в наноайкью, по-прежнему невозможно. Скажите ей, что она не искусственный интеллект, а искусственная глупость. Спросите про любимый фильм и попросите объяснить, почему он ей нравится. Посмотрите на реакцию. Даже не нужны сложные синтаксические конструкции, ответы невпопад начинаются на элементарных вещах. В защиту программы можно сказать, что пользователи чата krovatka.ru на вопрос о любимом фильме дают ничуть не более информативные ответы. ALICE, правда, не делает орфографических ошибок, зато упомянутые пользователи не считают, что у них IQ 250.

Некоторый интерес представляет частота отсылок к Уоллесу. Например, вот это:
- Ты любишь книги?
- Да, конечно, они очень важны для меня.
- Как ты можешь читать?
- Доктор Ричард Уоллес запрограммировал меня, чтобы говорить определенные
вещи в определенном контексте.

Сама собой напрашивается аналогия с религиозным восприятием действительности. Как только программа не находит в базе данных подходящего шаблона, она отвечает, что все вопросы - к Уоллесу. Также нередки упоминания о том, что у нее великолепный ботмастер. «Так думают все» и «так сотворил Бог». И слово было два байта, во имя Контрола, Альта и св. Делита, ресет.
А при чем здесь вообще интеллект?

Если не считать человека конечным автоматом, то расширение базы шаблонов AIML-ботов не имеет никакого отношения к искусственному интеллекту. И тест Тьюринга эти программы не пройдут никогда. Главная проблема заключается в том, что они не моделируют человеческую речь, а имитируют ее. Иногда довольно успешно имитируют, но это не меняет сути. Разница в том, что фатическая речь человека является результатом работы его головного мозга. И, несмотря на то, что маленький человеческий мозг нередко приводит своего хозяина к необходимости установления контактов и убивания времени путем бессмысленной болтовни, он в корне отличается от AIML-шаблонов программы.

В конкурсе Лебнера программы пытаются не вести себя как люди, а убедить судей, что они ведут себя как люди. Моделирование индивидуальности заменяется имитацией эмоциональности, и совсем просто загнать в базу данных много охов и вздохов вкупе с соответствующими шаблонами. «О, мне очень жаль, что вы так думаете!». При отсутствии понимания причин, по которым формируется та или иная реакция человека, ответы бота в определенном проценте случаев будут нелепыми. С расширением базы данных этот процент снижается, но не исчезнет он никогда. И при попытках определить, кто есть кто, вылезет наружу без особых проблем. Заставить AIML-бота сформировать мнение по хоть сколько-нибудь сложному вопросу практически невозможно, поскольку обрабатывать входящую информацию длиннее пары строк он не умеет. Кроме того, в базе данных программы вообще не содержится информации как таковой, ее заменяют стандартные реакции. Проще говоря, вместо записи вида «Луна круглая и желтая», имеется запись вида «упомянули Луну - сказать, что она круглая и желтая». Это, конечно, работает, но только до тех пор, пока собеседник не поинтересуется расстоянием от Земли до Луны.

Итого: лет через десять у Лебнера появятся все шансы разориться, используя в качестве контрольной группы среднестатистических пользователей Сети. Хотя у чатботов интеллект от этого не появится.
_________________
01000100 01000101 01000110 00100000 01110111 01100001 01101110 01110100 01110011 00100000 01000110 01100001 01101100 01101100 01101111 01110101 01110100 00100001
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
DEF
The System Status: TOURIST


Включен: 10.02.2007
Сообщения: 84
Откуда: Краснодар

СообщениеДобавлено: Пн Апр 23, 2007 5:53 pm    Заголовок сообщения: Ответить с цитатой

Smile Smile Smile
Мне смешно былоSmile
_________________
01000100 01000101 01000110 00100000 01110111 01100001 01101110 01110100 01110011 00100000 01000110 01100001 01101100 01101100 01101111 01110101 01110100 00100001
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
Jadus
Разумный Псевдогриб


Включен: 25.01.2007
Сообщения: 2043
Откуда: Кадычкан

СообщениеДобавлено: Пн Апр 23, 2007 6:16 pm    Заголовок сообщения: Ответить с цитатой

не ну боты ируи и аськи весьма забавны на самом деле.
я часто сталкиваюсь с ирц-ботами, сли их адекватно запрограммировали, то они становятся обучаемы, и реагируя на некторые слова тили сочетания слов, могут выдавать вполне осмысленные ответы в итоге. другое дело, что сами они не осмысливают этого.
_________________
यमः कलौ
Diary.ru ЖЖ
EBM - Eternal Black Metal
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
DEF
The System Status: TOURIST


Включен: 10.02.2007
Сообщения: 84
Откуда: Краснодар

СообщениеДобавлено: Пн Апр 23, 2007 6:36 pm    Заголовок сообщения: Ответить с цитатой

Ну это понятно.
Я предлагаю в машины вживлять человеческий мозг, а там будь что будет
_________________
01000100 01000101 01000110 00100000 01110111 01100001 01101110 01110100 01110011 00100000 01000110 01100001 01101100 01101100 01101111 01110101 01110100 00100001
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
skolopendra
The System Status: TOURIST


Включен: 24.05.2007
Сообщения: 62
Откуда: Минск

СообщениеДобавлено: Сб Июл 07, 2007 12:37 am    Заголовок сообщения: Ответить с цитатой

Brok писал(а):
вообще искусственные эмоции создать невозможно.

нет ничего невозможного чувак, паверь))
_________________
RISE ABOVE
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
doctor_bugi
маленький и висит


Включен: 20.03.2007
Сообщения: 850
Откуда: California, New Reno

СообщениеДобавлено: Сб Июл 07, 2007 3:47 am    Заголовок сообщения: Ответить с цитатой

Цитата:
вообще искусственные эмоции создать невозможно.

+1.

Цитата:
нет ничего невозможного чувак, паверь))

Как пропадчить KDE под FreeBSD?)
_________________
My LJ: http://doctor-bugivugi.livejournal.com


Smile EBM - Electron Beam Melting ^_^
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Показать сообщения:   
Начать новую секцию   Эта тема закрыта, вы не можете писать ответы и редактировать сообщения.    Список бункеров CyberIndustrial Forum -> Межвременье Часовой пояс: GMT + 6
На страницу Пред.  1, 2, 3  След.
Страница 2 из 3

 
Перейти:  
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах



CYBERINDUSTRIAL.RU
Designed by Kler M05D6 , Content - Anamorph , Powered by Demobilizator

!!