Помощь - Поиск - Пользователи - Календарь
Полная версия этой страницы: Как отличить?
Литературный форум Фантасты.RU > Мастерская Фантаста > В помощь писателю
Страницы: 1, 2, 3, 4
BurnedHeart
Итак, есть проблема.
Ничего нового, это наверняка уже было в литературе. Мне нужен тест определяющий кто компьютер, а кто человек.
Тест Тьюринга не предлогать. Это не то.
Действие происходит в виртуальном мире, где часть персонажей игры - NPC - по буржуйски, стала разумным. То есть осознала
себя мыслящей субстанцией. Все бы ничего и любой скажет, что не проблема по разговору и реакциям. Но есть одно заковыка.
Дело происходит в будущем с очень продвинутыми сложными компьютерами, которые по специальным алгоритмам одного гениального
программиста могут имитировать человека. Эмоции, правильно по человечески отвечать на тупые вопросы, не имеющие смысла. Даже "юморить".
Все это делается через очень хитрые и неимоверное сложные алгоритмы пользуясь базой данных собранной человечеством за энное количество времени. Что в переводе на простой язык означает, что в базе данных будут практически любые ответы на любые вопросы.
И теперь вопрос: как определить что это все же не человек? Ну или комп который стал как человек.
Как поймать за руку такой комп и отличить от ставшего разумным "очеловеченного" компьютера?
Дико сложная проблема в реальности. Но в фантастике у нас больше свободы придумать какую-то дополнительную фичу которая может помочь.
У меня есть некоторая идея. Я все-таки программист. Но она мне не ахти как нравится. Но может вы предложите лучше? Как говорится одна голова хорошо, а двадцать вообще круто))
Есть идеи?
slepowl
Попробовать опереться на эмоции? Вывести из себя и посмотреть на реакцию, например. Ведь каким бы сложным алгоритм не был эмоцию он на 100% не смоделирует. Ну и элемент творчества. Или надо еще глубже?
Серый Манул
Если это так как описано, то никак.
Jiba
Баг в коде программы ИИ, различного характера. Например, ведет себя неадекватно отвечая на сложные философские вопросы.
Так же, имитация чувств это одно, а сопереживание и любовь другое, сложные эмоции компьютер все равно не повторит. Если же у вас повторяет, то это полноценный ИИ и отличить его не программным способом, если такой вообще применим, невозможно.

Что касается программного способа, то есть вполне очень даже хорошая мысль о вредоносной программе, которую бы использовал хакер, для взлома и получения информации о нпс.
BurnedHeart
Цитата(slepowl @ 29.7.2014, 12:43) *
Попробовать опереться на эмоции? Вывести из себя и посмотреть на реакцию, например. Ведь каким бы сложным алгоритм не был эмоцию он на 100% не смоделирует. Ну и элемент творчества. Или надо еще глубже?

Нужен быстрый тест. Каким-то долгим мотылянием в философские дебри и вопросами о смысле жизни может и можно завалить такой супер комп с такой хитрой программой. Но у ГГ нет на такие лабороторные исследования времени. Нужно что-то такое вроде - ага вот оно! Нечто кардинально отличающее ставшего разумным компа и почти идеальную псевдоимитацию под нее.
Понимаю что много хочу. Но вдруг у кого идея блеснет?
BurnedHeart
Цитата(Серый Манул @ 29.7.2014, 13:11) *
Если это так как описано, то никак.

Никогда не говори никогда. )
Это же фантастика. Можно же какое-то допущение "вмазать". Вот только какое?
BurnedHeart
Цитата(Jiba @ 29.7.2014, 13:14) *
Баг в коде программы ИИ, различного характера. Например, ведет себя неадекватно отвечая на сложные философские вопросы.
Так же, имитация чувств это одно, а сопереживание и любовь другое, сложные эмоции компьютер все равно не повторит. Если же у вас повторяет, то это полноценный ИИ и отличить его не программным способом, если такой вообще применим, невозможно.

Вы не совсем поняли, уважаемый Джиба. Он не повторяет полноценный ИИ. Он просто имитирует его.
Ну вроде как есть скажем библиотека где собраны практически все возможные варианты ответа на вопросы. И комп снабжен программой которая всегда ставит правильную кассету с ответом на вопрос.
Как поймать его за руку, чтобы узнать, что это не он отвечает, а что это заготовленные ответы им просто выдаются?
slepowl
Задать вопрос дважды? в разговоре.нормальный человек сможет ответить на одинаковые вопросы по разному, а не из шаблона, как псевдоИИ.
Ну типа Я
Цитата(slepowl @ 29.7.2014, 14:12) *
Задать вопрос дважды? в разговоре.нормальный человек сможет ответить на одинаковые вопросы по разному, а не из шаблона, как псевдоИИ.

Это заблуждение. Даже сейчас есть программные имитации разговора (например специальные спам боты для веба), которые невозможно отличить от естественного общения . Вообще строго говоря можно распознать такого бота, но только если вы точно знаете алгоритм его работы.
Серый Манул
Цитата(BurnedHeart @ 29.7.2014, 12:47) *
Нужен быстрый тест. Каким-то долгим мотылянием в философские дебри и вопросами о смысле жизни может и можно завалить такой супер комп с такой хитрой программой. Но у ГГ нет на такие лабороторные исследования времени. Нужно что-то такое вроде - ага вот оно! Нечто кардинально отличающее ставшего разумным компа и почти идеальную псевдоимитацию под нее.
Понимаю что много хочу. Но вдруг у кого идея блеснет?

Как вариант - чушь. Полный вынос мозга, такое, что нельзя описать никакими алгоритмами. Ирацииональность, хаос в чистом виде. То, что присуще только живому, что нельзя никак системизировать. Шоб ошибки сразу поперли и ваши роботы сломались трубочкой.

Череда бессмысленных действий, поведения. Например о чем-то спрашивает, а делает другое.

Попросил робота пожать руку, а ты ему ногу даешь. Попросил покурить, и одновременно с роботом даешь сигареты. Спрашиваешь сколько времени, робот отвечает, а ты ему что-нибудь бесмысленно и связанное в ответ.

Задавайте вопрос с ашипками, безграмотно. Как проверка на капчу. Вот например зашифруйте в абстракции сообщение, которое можно расшифровать проявив творческую смекалку. Причем достаточно лёгкое, но не настолько, чтобы робот мог распознать лишь логическими методами.
Jiba
Кстати, мысль Серого Манула очень интересна, esлu тeksт пе4atAtb п0добHыM обрА3oм, то человек поймет, а вот ваша машина? А если еще и с ошибками. А уж если комбинировать не два языка и цифры, а больше. У героя вполне могут быть уже созданы заготовки аналогичных фраз. Это не так далеко от "бага ИИ" с которого я начал.

p.s. Я скорее поверю в существование такого вот "бага", чем в то, что у машины есть всевозможные заготовки на сотни, а возможно и тысячи, комбинаций одной и той же фразы. Возможно, многие действительно есть, но герой нашел те, которых нет. Можно так же обыграть момент, что "бот" апдейтится и постепенно пополняет запас знаний, но здесь уже ваша прерогатива.
Здесь так же можно обыграть момент, правда он весьма тяжел, где одна фраза с опечатками может нести совершенно иной смысл. Человек поймет, о чем идет речь в том, или ином контексте, не тупой, по крайней мере. Как, знаете автоматическую правку сообщений, после чего оно в корне меняет смысл? Но зачастую человек, получивший это сообщение, понимает о чем шла речь.

p.s.2 Я если честно сразу ушел в виртуальный мир с "живыми" нпс и представил SAO. Желательны более конкретные примеры, когда именно должен выявляться подвох, пока речь идет о переписке.
Серый Манул
Печать текста как вы предлогаете не прокатит. Но направление верное. Посмотрите картины художников абстракционистов, там из разных предметов образуются лица, фигуры и т.п. Такие картины можно использовать, спросить мол что изображено.

В любом случаи идиотизм - главное оружие в борьбе с компутерами.

Если в нем есть база, то нужно показать нечто новое и ии не сможет на это реагировать. Изобретение, явление...
Jiba
Цитата(Серый Манул @ 29.7.2014, 14:57) *
Печать текста как вы предлогаете не прокатит. Но направление верное. Посмотрите картины художников абстракционистов, там из разных предметов образуются лица, фигуры и т.п. Такие картины можно использовать, спросить мол что изображено.

В любом случаи идиотизм - главное оружие в борьбе с компутерами.

Если в нем есть база, то нужно показать нечто новое и ии не сможет на это реагировать. Изобретение, явление...

С фигурой не соглашусь. Как и с критиков насчет смешивания языков. А так да, чтобы компьютеру понять идиота, придется заставить пропотеть свои микросхемы. smile.gif
moiser
По большому счету - это невозможно. Некоторые люди ведут себя как роботы и в нашей жизни. Однако, если робот представляет собой полную копию человека, то шанс есть. Но тут важен пол. Если это мужчина, то это одно, а если женщина, то стратегия будет совсем другой.
slepowl
Цитата(Ну типа Я @ 29.7.2014, 15:23) *
Это заблуждение. Даже сейчас есть программные имитации разговора (например специальные спам боты для веба), которые невозможно отличить от естественного общения . Вообще строго говоря можно распознать такого бота, но только если вы точно знаете алгоритм его работы.

дайте ссылку - пообщаюсь. Сколько ботов не видел - все тупые.

Вообще Серый Манул прав, ввести его в нелогичную ситуацию. Проверить на понимание афоризмов можно еще)
Серый Манул
Цитата(slepowl @ 29.7.2014, 16:31) *
дайте ссылку - пообщаюсь. Сколько ботов не видел - все тупые.

Вообще Серый Манул прав, ввести его в нелогичную ситуацию. Проверить на понимание афоризмов можно еще)

Известные афоризмы уже будут заложены.
BurnedHeart
Манул копает в нужном направлении.
Спасибо всем, за толковые советы!
Просто здесь проблемно, что это не чисто машинная логика. Поймать антилогичностью логичную машинку это не сложно. В данном случае робот имитирует под человека и его алгоритмы спецом будут нарушать логику, ему это нужно для имитации. Надо ловить его на чем-то что он не способен сыграть по заготовке. Пусть у него их и триллион этих заготовок.
У меня там есть профессор по неврологии и проблемам ИИ, который читает лекцию. Лекцию я оставил за кадром, потому что хоть и думаю, что что-то сумел бы после подготовки выдать, но вряд ли настолько убедительно для всех. Вот теперь незадача, надо метод опознования из этой лекции применить.
В любом случае ваше обсуждение меня толкает в правильном направлени. Не знал, что это будет так полезно. Все писатели-фантасты инутитивные изобретатели. Удивительно сколько решений сложной проблемы они предлагают. Браво!
Комиссар
Да, вариант с ломкой логики бота с помощью неадекватного вопроса - лучший.
Можно ещё поиграть с ботом в ассоциации, проверить на наличие чувства юмора, рассказав анекдот, попросить разгадать самостоятельно составленный ребус.
И кстати, можно попробовать "поймать" бота на действиях, которые нормальный человек делать не умеет. Например, на сложных алгебраических и тригонометрических вычислениях в уме.

И ещё. Если это виртуальный мир, бот видит его не так, как игрок. Например, при расчёте пути своего движения бот "видит" невидимые для игрока коллизии (плоскости, не позволяющие игровым объектам проходить сквозь себя).
Пример: Пустить группу игроков по незнакомому для них пути из п. А в п. Б. (типа наперегонки). Туда ведут два пути: короткий и длинный. Но поперёк короткого пути расположена коллизия, сквозь которую невозможно пройти. И только бот "увидит" её ещё на старте, т.к. он сразу активирует алгоритм "поиск пути", и он выдаст ему единственный возможный путь.
Или наоборот, если бот тупой, он может "застрять" в коллизии, которую игрок сообразит, как обойти.
Также игроки обычно с удовольствием используют баги и глюки игры в свою пользу. Бот так не может, ибо это не заложено в его программе.
Серый Манул
А у них у всех разный характер? Можно за счет симуляции эмоций раскалывать.
BurnedHeart
Цитата(Комиссар @ 29.7.2014, 19:35) *
И кстати, можно попробовать "поймать" бота на действиях, которые нормальный человек делать не умеет. Например, на сложных алгебраических и тригонометрических вычислениях в уме.

Тут есть смысл! АЛУ - арифметико-логическое устройство есть в каждом ядре процессора. Фактически его мозг. Здорово! Комп действительно будет способен делать вычесления которые не могут делать обычные люди. (есть правда саванты - люди счетчики)
Но в общем-то отличная идея, Комиссар. Вы вышли в лидеры по оригинальности! "Побили" всех! Жму руку!
Правда все же для мой ситуации, это не то. У меня компьютер стал человеком. Как бы. И тут он конечно не утерял свои способности по вычислению.
А так, идея - конфетка. Прямо сейчас же просится на короткий рассказ или повесть про мир андроидов, которые захватили власть на Земле и таким способом выявляют людей, шпионов-повстанцев сопротивления людей. Ну и терпять фиаско натолкнувшись на "саванта".
Прикольно. Спасибо. Хоть и не то.
BurnedHeart
Цитата(Серый Манул @ 29.7.2014, 19:37) *
А у них у всех разный характер? Можно за счет симуляции эмоций раскалывать.

Дело в том, что всем виртуальным миром заведует этот суперкомп. И конечно он как бы отвечает за каждого НПЦ. Вселяясь в его шкуру.
В смысле НПЦ используют его базу и вычислительную мощь. Сами по себе они не очень сложные проги. Для своего времени конечно.
Серый Манул
В общем суть: если ваши псевдоИИ имеют характеры, то есть определенный алгоритм который создаёт эти характеры. Есть основные архитипы людей, типа холерики, флегматики и т.п. Чистых характеров не бывает, есть их смеси. Этот алгоритм смешивает характеры, чтобы ии походили на человека. Так вот, зная как этот алгоритм работает и зная то, как устроена база ии, можно определить ии это или человек след. образом:

Мы задаем вопросы на асоциацию. ИИ уже заранее отвечает на них в соответствии с базой основанной на его характере. Далее, мы получаем тип характера собеседника, составляется модель. Она соотносится с тем алгоритмом, если модель идеально сходится с алгоритмом, то мы узнаем ответ - человек это или ии, по последнему контрольному вопросу. То есть мы заранее знаем что на него ответит ии, но человек нет. Вопрос необычный, сложный, иррациональный.
Серый Манул
И ещё: для достоверности псевдоИИ имеют ограниченную базу знаний и ограничение возможностей, иначе можно слишком легко их вычислить, по тем же считанием в уме или даты рождения Нила Патрика Харрисона. У разного индивидуума ии, будут разные возможности вплоть и вычислительные, умственные, характер. Так, что вариант со считаем в уме - это явная ошибка разработчиков этого ИИ, причём явная.
BurnedHeart
Цитата(Серый Манул @ 29.7.2014, 19:58) *
Мы задаем вопросы на асоциацию. ИИ уже заранее отвечает на них в соответствии с базой основанной на его характере. Далее, мы получаем тип характера собеседника, составляется модель. Она соотносится с тем алгоритмом, если модель идеально сходится с алгоритмом, то мы узнаем ответ - человек это или ии, по последнему контрольному вопросу. То есть мы заранее знаем что на него ответит ии, но человек нет. Вопрос необычный, сложный, иррациональный.

ИМХО, весьма расплывчатым будет такой тест. Ваша идея с антилогикой лучше этой.
Но все равно спасибо. Покумекаю и над этим вариантом.
BurnedHeart
Цитата(Серый Манул @ 29.7.2014, 20:00) *
И ещё: для достоверности псевдоИИ имеют ограниченную базу, иначе можно слишком легко их вычислить, по тем же считанием в уме. У разного индивидуума, будут разные возможности вплоть и вычислительные. Так, что вариант со считаем в уме - это явная ошибка разработчиков этого ИИ,

В смысле разработчики могут учесть эту фичу компа? И нарочно ее подкорректировать?
Вы это имеете в виду?
Серый Манул
Цитата(BurnedHeart @ 29.7.2014, 19:01) *
ИМХО, весьма расплывчатым будет такой тест. Ваша идея с антилогикой лучше этой.
Но все равно спасибо. Покумекаю и над этим вариантом.

Обычный психологический тест+расчёты на компе с соотнесением с алгоритмом. Делов на 5 минут опроса.
Серый Манул
Цитата(BurnedHeart @ 29.7.2014, 19:02) *
В смысле разработчики могут учесть эту фичу компа? И нарочно ее подкорректировать?
Вы это имеете в виду?

Именно. Неотличимый ИИ не может считать в уме большие числа. Иначе он отличим. Характер, поведение, привычки - не могут быть одинаковыми. Может быть баг - например внешняя реакция, нет какого то движения рефлекторного у ИИ программ, просто упустили из виду. Например поддёргивание глазом или еще что-то специфическое. Может быть реакция на еду определенная.
Комиссар
Советую почитать рассказ Айзека Азимова "Как потерялся робот".
Это рассказ о том, как вычисляли необычного робота среди обычных.
Вероятно, Ваш псевдоИИ страдает тем же комплексом превосходства над людьми. Учитывая, что псевдоИИ в виртуальном мире видит и знает больше, чем человек, это может его выдать.

Ах да, есть ещё простейший тест. Можно показать боту картинку (портрет человека), набранную из символов и попросить сказать, что он здесь видит. Бот, действуя по принципу сканера, сразу распознает символы и попытается распознать текст (естественно, безуспешно), тогда как человек сразу увидит изображение.

Да, есть программы, которые конвертируют готовые изображения в текстовые. Но я ни разу не слышал о программах, способных распознавать текстовые изображения.

П.С.: Впрочем, если со временем псевдоИИ может быть проапгрейжен и запатчен, то он может научиться распознавать такие изображения.

Вспомнился ещё один фантастический рассказ, где инопланетяне могли свободно мимикрировать под людей, но имели одну слабость: они не слышали шёпот.
Может быть и псевдоИИ не всегда разбирает человеческую речь (акценты, слэнги, диалекты. картавости и т.д.). Когда-нибудь ставили на телефоне голосовой набор номера? А ещё лучше - блокировку? ))) Хотя распознавать дефекты речи тоже можно научиться.

Кстати!

По рзелульаттам илссеовадний одонго анлигйсокго унвиертисета, не иеемт занчнеия, в кокам пряокде рсапожолены бкувы в солве. Галвоне, чотбы преавя и пслоендяя бквуы блыи на мсете. Осатьлыне бкувы мгоут селдовтаь в плоонм бсепордяке, все-рвано ткест чтаитсея без побрелм. Пичрионй эгото ялвятеся то, что мы чиатем не кдаужю бкуву по отдльенотси, а все солво цликеом.

Побрнодее зесдь
Мне кажется, псевдоИИ на таких текстах будет подвисать.
Семаргл
При такой постановке задачи ответа нет. Потому что: супербот, управляемый суперкомпьютером будет просекать любого человека, который попытается его выявить и соответственно примет все необходимые меры противодействия. Все возможные ответы - это лишь концепции несовершенства программы суперкомпьютера. И потом. А что есть человек? Та же машина, только капризная и несовершенная, о чем написано уже немало не только фантастических книжек. Поэтому когда вы ответите на вопрос - а в чем принципиальное отличие человека от этого вашего бота, тогда и и найдете решение задачи.
Ну типа Я
Цитата(Комиссар @ 29.7.2014, 22:07) *
Ах да, есть ещё простейший тест. Можно показать боту картинку (портрет человека), набранную из символов и попросить сказать, что он здесь видит. Бот, действуя по принципу сканера, сразу распознает символы и попытается распознать текст (естественно, безуспешно), тогда как человек сразу увидит изображение.

Ребяты! Не будьте такими наивными) Такая штука преобразуется в полноценное изображение элементарно! Вот вам пример на паскале преобразования строки в картинку.
Код
s := 'sssss          fff gg cfdfg bvnv                bnxdv asdfgwdge sddsd';
x := 0;
Image1.Canvas.MoveTo(0, 0);
for i := 0 to Length(s) - 1 do
begin
  if s[i] <> ' ' then Image1.Canvas.Pen.Color := clBlack
  else Image1.Canvas.Pen.Color := clWhite;
  Image1.Canvas.LineTo(x + 1, 0);
  Inc(x);
end;

"Умность" робота определяется программистом, а не железом. Что захочет программист, то и увидит робот.

Тягаясь с роботом, на самом деле вы тягаетесь с программистом, который его программировал.
dio_bless
>которые по специальным алгоритмам одного гениального программиста могут имитировать человека
Есть обходной вариант -- получить доступ к исходникам программы(что само по себе может стать дополнительным квестом) и либо на основе их составить тест, который однозначно будет всегда проходиться "ботами" одинаково, либо внести в него изменения а-ля if($answer eq 'Are you robot?') {print 'yes';} и распространить как патч))

А вообще, где-то я это уже читал... у Азимова.

ЗЫ
>базой данных собранной человечеством за энное количество времен
Размеры такой базы колоссальные, значит хранится на локальной машине она не может, значит каждый бот каким-то образом обращается к ней, что опять таки позволит подсунуть нужные нам данные либов в БД, либо подделать ответ от неё в какой-то момент.
BurnedHeart
Цитата(Ну типа Я @ 30.7.2014, 12:20) *
"Умность" робота определяется программистом, а не железом. Что захочет программист, то и увидит робот.

Тягаясь с роботом, на самом деле вы тягаетесь с программистом, который его программировал.

В этом суть задачи. Определить является ли робот "программным" или как-то поумнел и несет отсебятину.
Как отчленить того, кто эту отсебятину "гонит"?
А так конечно, это правда. И в начале написано, что имитируется личность именно благодоря алгоритмам одного
гениального программиста. И необходимо найти способ.
Альберт Садыкoff
Цитата(Семаргл @ 30.7.2014, 10:57) *
При такой постановке задачи ответа нет.

Также хотел ответить, но решил не обламывать ТС.
Ну типа Я
Цитата(BurnedHeart @ 30.7.2014, 12:32) *
В этом суть задачи. Определить является ли робот "программным" или как-то поумнел и несет отсебятину.
Как отчленить того, кто эту отсебятину "гонит"?

Есть один способ, только не уверен что он может быть применен на практике. Например для распознания смысла текста/речи используются словари. Просто в программу закладывается определенный набор слов и способ анализа. Такой словарь может быть огромен, намного превышать словарь человека, но он всегда конечен в каждый момент времени. Т.е. можно добавить слово в словарь, добавить правила, но не непосредственно в момент анализа. Человек такого жесткого ограничения по словарю не имеет. В принципе он может придумывать слова и правила на ходу. Так нередко поступают дети, когда им не хватает слов. Вот если отловить такую разницу, то достаточно уверенно можно отличить машинную речь от человеческой.
Ну типа Я
Цитата(BurnedHeart @ 30.7.2014, 12:32) *
В этом суть задачи. Определить является ли робот "программным" или как-то поумнел и несет отсебятину.
Как отчленить того, кто эту отсебятину "гонит"?

Не зная начальной программы никак. Поясню на примере. Мы создали самопрограммирующегося робота для объезда препятствий. Заложили в программу варианты влево вправо, а выбирает он сам. Если робот поехал назад от препятствия, то это отсебятина. Но программа может быть и более сложной. Заложить в нее не лево право, а понятие направления вообще. Тогда куда бы он не поехал от препятствия, он будет действовать в рамках программы.
Семаргл
Цитата(Ну типа Я @ 30.7.2014, 11:54) *
Не зная начальной программы никак.

Это типа человек - подобие Linux, у него всегда есть доступ к исходному коду,который он может и поменять в силу своих человеческих способностей) А андроид - это Windows)) Удобен, эффективен, никогда не выйдет за определенные рамки, а значит безопасен для разработчиков исходного кода) Отголоски глобального противостояния мирозданий.
Альберт Садыкoff
"Новинка STAR-SOINN(STAtistical Recognition — Self-Organizing and Incremental Neural Networks) — для построения умного робота, мы должны развивать психическую систему автономного робота, которая последовательно и быстро учится у человека, его среды и Интернета. Поэтому мы предлагаем сеть STAR-SOINN — это ультрабыстрая, мультимодальная сеть обучающаяся в режиме реального времени и обладающая возможностью дополнительно обучатся через интернет...
В русскоязычном интернете про сеть SOINN есть только пару статей о том, что робот работая по этому алгоритму сам находит решения поставленных задач и если ему не объяснили как решить задачу, то он подключается к интернету и ищет решение там.http://habrahabr.ru/post/188230/
Jiba
BurnedHeart возможно, вы не заметили мою просьбу, она была короткой и в p.s., думаю обсуждение будет более продуктивным, если вы приведете конкретные примеры, где и при каких условиях эти бот-программы должны быть "спалены". Я имею ввиду, находясь в виртуальном мире, при общении с ними, в чате, или где-то еще. Чем подробнее вы это опишите, тем вероятнее, что сможете услышать желанный вами ответ от одного из участников дискуссии.

p.s. По-поводу соцопросов и прочего. Читал вас и задумался. Зачем боту их проходить? Как впрочем и человеку... А про то, что бот может быть определен по тому, что он умеет делать то, что человек нет, то это плохо написанная программа.
p.s.2. Если речь идет об игре, то да, движения бота легко отличимы. Не полноценный ИИ не сможет с этим справиться. Но в таком случае, тут тоже необходимо уточнить его возможности.
p.s.3. Так же вопрос, способна ли ваша программа не просто считать картинку, в каком она виде не была и сопоставить ее с базой. А ответь на вопрос, который написан в картинке рукописным текстом, самыми различными способами, в том числе теми о которых я говорил ранее.
BurnedHeart
Цитата(Jiba @ 30.7.2014, 15:46) *
BurnedHeart возможно, вы не заметили мою просьбу, она была короткой и в p.s., думаю обсуждение будет более продуктивным, если вы приведете конкретные примеры, где и при каких условиях эти бот-программы должны быть "спалены". Я имею ввиду, находясь в

Извините, не заметил вашу просьбу.
Отвечу более развернуто потом. Сейчас дефицит времени на момент.
Спасибо всем кто выдавал идеи.
Комиссар
Все описанные мной способы рассчитаны на то, чтобы застать машину врасплох. Программист вряд ли сможет предусмотреть столь нестандартные тесты.
Если псевдоИИ способен к самообучению или регулярно патчится программистом, в дальнейшем эти способы могут оказаться неэффективными.
Ну типа Я
Цитата(Комиссар @ 30.7.2014, 19:43) *
Все описанные мной способы рассчитаны на то, чтобы застать машину врасплох. Программист вряд ли сможет предусмотреть столь нестандартные тесты.

Машину нельзя застать врасплох даже теоретически. Либо она воспримет вопрос/ситуацию и будет действовать, либо нет и ничего делать не будет.
А вот программа действительно не может предусмотреть все возможные ситуации. И вот действие машины на незнакомую, но воспринятую, ею ситуацию скорее всего будет отличаться от поведения людей. Правда программисты придумали универсальную реакцию и во многих случаях она сработает: если машина не смогла оценить вопрос/ситуацию, она отвечает примерно "пошел на х...". И это взято не с потолка. Люди тоже частенько именно так и поступают в незнакомой/новой/неожиданной ситуации. Помимо чисто машинного "мышления" в таких программах есть еще и имитация поведения людей, что осложняет распознание.
Комиссар
Цитата(Ну типа Я @ 30.7.2014, 18:29) *
Машину нельзя застать врасплох даже теоретически. Либо она воспримет вопрос/ситуацию и будет действовать, либо нет и ничего делать не будет.
А вот программа действительно не может предусмотреть все возможные ситуации. И вот действие машины на незнакомую, но воспринятую, ею ситуацию скорее всего будет отличаться от поведения людей. Правда программисты придумали универсальную реакцию и во многих случаях она сработает: если машина не смогла оценить вопрос/ситуацию, она отвечает примерно "пошел на х...". И это взято не с потолка. Люди тоже частенько именно так и поступают в незнакомой/новой/неожиданной ситуации. Помимо чисто машинного "мышления" в таких программах есть еще и имитация поведения людей, что осложняет распознание.

Сразу вспомнилось
al1618
Интересная задачка:
Цитата(BurnedHeart @ 29.7.2014, 12:00) *
Итак, есть проблема.
Ничего нового, это наверняка уже было в литературе. Мне нужен тест определяющий кто компьютер, а кто человек.
Тест Тьюринга не предлогать. Это не то.

Вот тут забавный "баг" - если тест Тьюринга проходится - значит перед нами не имитация а подлинный ИИ и отличить его от подлинно разумного просто нельзя ( см описание теста smile.gif )
Порог самоорганизации - до него скрипт, после - полноценный разум а не его имитация.

В принципе можно было бы определить "электронный разум" по иным базовым устремлениям целям и логике. Но вот если "в подкорке" этого разума прошита наиболее полная имитация именно человека...
Тут предлагали искать "баги" в коде. То есть неполную имитацию или шаблонные действия. Есть немного обратное предложение - искать баги в человеке smile.gif)))))
То есть воспользоваться тем что человек все же базируется на другом "железе", отличном от элементарной базе ИИ.
И этот "базис" на человека влияет и весьма сильно - вплоть до того что если выдать последовательность вспышек определенного спектра и частоты у 25% людей начнется эпилептический припадок. У ИИ разумеется такого не будет.
Как на него и не подействуют "мягкие" методы вроде НЛП, гипноза, подпорогового акустического воздействия, 25-го кадра ( в его не рекламном варианте) и прочего чего немало наработали в закрытых и не очень конторах.
Сильно вряд ли чтобы имитация деятельности мозга достигала таких глубин чтобы моделировать поведение системы из 100 000 000 000 нейронов smile.gif
А если дошли и до этого...

Можно еще обратится например к сенсорным различиям - просмотрите в инете "оптические иллюзии". Вполне годный метод "быстро" раскалывать ИИ который совершенно по другому должен воспринимать оптическую информацию - поскольку лишон он особенности оптической системы человека.
К слову - среди оптических иллюзий есть и те которые базируются на основе уже не оптики глаза а на особенностях обработки мозгом оптической информации - так что оба предложенных теста в одном стакане и быстро - просто картинку показать и спросить что видишь wink.gif
SexyGod
ИИ человечнее, ум нее, начитанней, интереснее, слишком много знает.
Будет видно за версту. Как ботан в спортивной школе.
С таким развитым ИИ люди деградируют ещё больше
Так что никаких проблем.
Ра солнценосный
На эротике ИИ проколется мгновенно, фоточки показать, сами знаете какие.
SexyGod
Цитата(Ра солнценосный @ 31.7.2014, 9:07) *
На эротике ИИ проколется мгновенно, фоточки показать, сами знаете какие.

Не проколется.
Уже сейчас симуляторы сексигр существуют и очень даже неплохо работают
Ра солнценосный
Цитата(SexyGod @ 31.7.2014, 11:10) *
Не проколется.
Уже сейчас симуляторы сексигр существуют и очень даже неплохо работают

Вы не ИИ случайно? Понятие привлекательности эфемерно, при одних пропорциях эротичность может быть разная, люди это просекают мгновенно. Берусь вычислить киборга через порно.
Плуто
Цитата(BurnedHeart @ 29.7.2014, 12:47) *
Нужен быстрый тест. Каким-то долгим мотылянием в философские дебри и вопросами о смысле жизни может и можно завалить такой супер комп с такой хитрой программой. Но у ГГ нет на такие лабороторные исследования времени. Нужно что-то такое вроде - ага вот оно!


По-моему, может помочь бытовуха, физиология.
Вопрос вроде: А ты писался в детстве? Или можешь на снегу, писая, нарисовать звездочку октябрёнка?
rolleyes.gif
Ра солнценосный
Ерунда, любой соврет, что выложит экскрементами скрипичный ключ. А вот выбрать симпатичную из уродин ИИ не сможет.
Jiba
Цитата(Ра солнценосный @ 31.7.2014, 11:06) *
Ерунда, любой соврет, что выложит экскрементами скрипичный ключ. А вот выбрать симпатичную из уродин ИИ не сможет.

У людей вкусы тоже разнятся. Как быть? А если имеется ввиду ориентация чисто на пропорции, то проанализировать фотографию ничего не стоит.
Для просмотра полной версии этой страницы, пожалуйста, пройдите по ссылке.
Форум IP.Board © 2001-2025 IPS, Inc.
Рейтинг@Mail.ru