персонаж которого не угадает акинатор
Кого загадать Акинатору? Кого лучше загадать, чтобы Akinator не отгадал?
Акинатор, конечно, смышленый, но бывали случаи, что он показывал/угадывал совсем другого человека.
Поэтому, лучше загадывать более менее известных людей.
Можно загадать певцов/певиц, режисеров, сказочных персонажей.
Например, можно загадать Карлсона, Чебурашку, Буратино.
Ох, вариантов может быть много. Если речь о персонажах, то стоит брать второстепенных. Например, с половиной таких героев из «Игры престолов» Акинатор не справляется. Или же брать работы, которые недавно появились и могли не попасть в базу Акинатора.
Можно брать что-то специфическое. Например, Акинатор с трудом угадывает персонажей японской манги или аниме, если работа не суперпопулярна. А часть героев настолько похожи судьбой и историей, что программа подсовывает вместо одного иного.
И да, можно отвечать на половину вопросов «Я не знаю». Хорошо подходит, если так ответить на некий ключевой вопрос, который сразу приведет к герою.
это сложная программка, чаще всего он если не знает, то пишет, что нельзя такого показывать(типо не для детей).можно отключить блокировку.теперь о том, как обмануть акинатора:
он выводит какого то персонажа всегда, он может быть правильным или неправильным, но он будет.можно давать акинатору мало информации,к примеру всегда отвечать нет.иногда он может сказать, что не знает,вот и всё.
Его сложно обмануть, вернее обмануть можно, но тогда теряется смысл игры. Сложно что-то загадать и что бы он не угадал, вернее это почти невозможно, потому что база постоянно пополняется и он знает про них всё.
Акинатор плохо угадывает многих персонажей из индийской мифологии.
В частности загадала Джаландхара
Три раза играла, чтоб он угадал Индру, Сурью.
Плохо угадывает индийских актеров. Даже в главных ролях популярных сериалов.
И думаю мифологию Акинатор знает хуже, чем популярных личностей и актеров сериалов и аниме.
Навскидку, загадала Тарантино, предложил Мэла Гибсона.
Загадала Марину Цветаеву, выдал Беар Гриллс, по выживанию.
Загадала Владимира Путина, ответил Джордж Сорос, финансист.
Вместо Майи Плисецкой выдал Томаса Кинкейда, художника.
Раньше играла, чаще всего он угадывал, совсем народ испортил ему базу данных.
Загадайте ему героев японских мультфильмов, например отлично подойдет герой из такого легендарного мультфильма как «Акира», как лидер их байкерской команды Сётаро Канэда. Ну или можно загадать руководителя культа Акиры, Мияко.
Акинатор является персонажем приложения, которое отгадывает почти все, однако хочется понять то, как же его обмануть и что загадать. Второстепенные персонажи иногда не угадываются Акинатором, а также ему сложно угадать их из японского аниме или же героев с похожими судьбами. Также, Акинатор плохо угадывает персонажей из индийской мифологии.
Я так понимаю «Избранное» на этом сайте? Так как меня в избранное добавляют (спасибо, кстати, друзья), то попробую ответить. Во-первых, нужно задавать вопросы, которые будут привлекать авторов: как в плане давать ответы; так в плане полезности информации лично для себя.
Ну, и конечно, регулярность: если вы будите писать один ответ в месяц, то мало кто Вас в избранное добавить хочет. Хотя, я и не пишу каждый день: могу вообще один день не отвечать, а на другой дать 20 ответов.
Татьяна Навка недавно родила вторую дочь, Надежду.После родов выступать в ледовом шоу ей было бы нелегко, организму надо восстановиться. Без работы она, конечно, не останется, ходят слухи, что ей предложили стать ведущей ток-шоу на НТВ. Поживем-увидим, правда это или нет.
Все ответы в виде фотографий, с отмеченным на них месторасположением кота, конечно же, можно найти на сайте Большой Вопрос. Надо только в строке поиска ввести необходимый номер уровня, или выбрать вкладочку тэги, а там найди кота и порыться в том, что там имеется. Некоторые ответы я предоставлю в своем ответе, что бы облегчить вам работу.
На 7-м уровне игры «Мозговой штурм» будет слово «БЛОКНОТ».
Конечно по описанию не сразу догадаешься, что речь идёт именно про блокнот. На ум первым делом приходит дневник.
На картинке он будет вот так выглядеть.
акинатор
27 Nov 2014 в 16:55
27 Nov 2014 в 16:55 #1
Кого можно загадать акинатору чтобы не угадал?
27 Nov 2014 в 17:15 #2
шутка дотера: свою мамашу
по сабжу тут над хорошо подумать, и вспомнить кого-то известного но при этом неизвестного и малозначимого
27 Nov 2014 в 17:17 #3
27 Nov 2014 в 17:17 #4
очень легко, если не соображаешь то не поймешь
27 Nov 2014 в 17:18 #5
27 Nov 2014 в 17:19 #6
27 Nov 2014 в 17:19 #7
загадал пс4, вот что он мне выдал «Игрок, который сделает ставку на что угодно, умник, который отвечает вразброс » втф?
27 Nov 2014 в 17:19 #8
27 Nov 2014 в 17:20 #9
соседский кот.
он находит только «ваш кот», «подвальный/потолочный кот» и «кот вашей подруги» :О
27 Nov 2014 в 17:21 #10
Кого можно загадать акинатору чтобы не угадал?
Гаррош Адский Крик
Джайна Праудмур
Почему игра акинатор угадывает всех, кого ей загадываешь.. по абсолютно не конкретным вопросам и ответам?!
«Акинатор» — интернет-игра, разработанная двумя французскими программистами в 2007 году. Игрок должен загадать любого персонажа, а Акинатор — главный персонаж игры, внешне напоминающий джинна, — должен его отгадать. В качестве персонажа могут выступать как реальные личности, так и выдуманные персонажи из любых произведений: фильмов, сказок, компьютерных игр и так далее. Акинатор задаёт 40 вопросов. У него есть две дополнительные попытки (в каждой из которых несколько дополнительных вопросов) на тот случай, если он не смог отгадать загаданного игроком персонажа за отведённые 40 вопросов. Или же, наоборот, он может задать меньше вопросов, если смог отгадать персонажа быстрее.
Принцип работы программы
Акинатор начинает с более общих вопросов, и каждый последующий вопрос носит уточняющий характер. Таким образом, Акинатор фильтрует подходящих и неподходящих персонажей. Акинатор запоминает, как все игроки ответили на тот или иной вопрос при загадывании того или иного персонажа, и таким образом на каждого персонажа создаётся некий реестр о том, как отвечали игроки на вопросы о нём, и если данный игрок ответит на вопросы так же, то Акинатор отгадает загаданного игроком персонажа. Если Акинатор не смог отгадать персонажа, то он предлагает ввести название этого персонажа, после чего запоминает его и все ответы, которые давал данный игрок на вопросы об этом персонаже. И если другой игрок загадает этого же персонажа, то Акинатор сможет уже его отгадать. Таким образом, количество персонажей, известных Акинатору, постоянно увеличивается.
Акинатор и математика
Функциональные требования
Алгоритмы
Если бы не прощение ошибок, добиться желаемого можно было бы довольно просто. Например, можно было бы хранить дерево ответов на вопросы, в котором внутренние вершины соответствовали бы вопросам, а листы — ответам. Процесс игры тогда выглядел бы как спуск от корня к одному из листов. Тем не менее, с прощением ошибок этот алгоритм справляться не будет. Да и вопросы балансировки дерева возникают.
В каком-то смысле дерево — это очень «механистический», «машинный» способ игры, крайне неустойчивый к малейшим неточностям. Нам же нужно играть так, как стал бы играть рациональный человек. Тем, кто более-менее знаком с теорией вероятности, должно быть известно, что у нее существует так называемая Байесовская интерпретация, а также основанный на ней Байесовский подход. В основе этого подхода лежит описание знаний с помощью распределений случайных величин с последующим преобразованием априорных знаний в апостериорные на основе наблюдений при помощи знаменитой формулы Байеса. Более того, такой подход является единственным обобщением классической алгебры логики на случай неопределенности (об этом можно прочитать, например, тут). Это наводит многих ученых на мысль, что Байесовский подход является эталоном рационального мышления. Что же, нам только этого и нужно. Попробуем применить его к нашей задаче.
Байесовская модель
Итак, вспоминаем формулу Байеса: P(A|B) = P(B|A)P(A)/P(B). А теперь словами. Пусть нам нужно оценить вероятность того, что произошло событие A, при условии, что событие B точно произошло (то есть мы его гарантированно пронаблюдали; именно поэтому B часто называют наблюдением). По формуле Байеса эта вероятность пропорциональна произведению двух других. Первая из них, P(B|A), называется правдоподобием и показывает, с какой вероятностью событие B происходит при условии, что произошло A. Второй множитель, P(A), — это так называемая априорная вероятность события A, то есть вероятность, что оно в принципе произойдет (вне зависимости от B). По сути, эта вероятность отражает информацию, которую мы знали об A до того, как узнали о том, что произошло B. В знаменателе формулы также присутствует величина P(B), которая в данном случае просто играет роль нормировочного коэффициента и может быть проигнорирована.
Априорную вероятность P(Ai) можно рассматривать как частный случай P(Ai|B) при k=0. Иначе говоря, это вероятность, что игрок загадал объект i при условии, что вопросов задано не было, и мы вообще ничего не знаем. С одной стороны, можно было бы дать всем объектам равные P(Ai), т.к. это честно. С другой стороны, Барака Обаму наверняка будут загадывать намного чаще, чем Холдена Колфилда. Поэтому при прочих равных (то есть когда мы не можем различить объекты), следует выбирать именно Обаму. Следовательно, естественной оценкой P(Ai) будет отношение числа игр, когда был загадан X, к общему их числу.
Правдоподобие P(B|Ai) тоже получает удобную интерпретацию. Только прежде нужно воспользоваться одним небольшим трюком — предположить условную независимость ответов на вопросы при условии Ai (несколько грубое, но очень удобное для нас упрощение). В переводе на русский это значит, что по предположению вероятность P(B|Ai) может быть записана в виде произведения (по j) вероятностей P(Bj|Ai), где Bj — событие вида «На вопрос Qj был дан ответ Aj». P(Bj|Ai) в этом случае будет отношением числа раз, когда при загаданном объекте i на вопрос Qj был дан ответ Aj к числу раз, когда при загаданном объекте i в принципе был задан вопрос Qj. В целях избежания нулевых и неопределенных вероятностей предлагаю дополнительно считать, что изначально на каждый из вопросов каждый из вариантов ответов был дан по разу. То есть в случае, если вопрос Qj еще ни разу не задавался об объекте i, P(Bj|Ai) будет равно 1/Nj, где Nj — число вариантов ответа на вопрос Qj (я, к слову, использовал для всех вопросов одни и те же 4 варианта ответа: «да», «нет», «не знаю» и «вопрос не имеет смысла»).
Подведем промежуточный итог. Мы нашли простую формулу, которая отображает набор пар вопрос/ответ и некоторую сущность в вероятность, что при данных ответах на вопросы была загадана именно эта сущность. Пересчитав эту вероятность для всех объектов в нашей базе данных после ответа на новый вопрос можно видеть, какие из них больше похожи на загаданный объект на настоящий момент. Более того, обучение нашей модели реализуется довольно просто: нужно просто для каждой сущности в базе хранить информацию о том, какие вопросы про нее задавались и сколько ответов каждого из типов дали пользователи. После каждой игры эту информацию можно обновлять, основываясь на ответах пользователя. Также, для учета «популярности» персоны в базе нужно хранить число раз, которое персона была загадана.
Выбор вопросов, информация и энтропия
Ну что же, осталось только понять, какие вопросы лучше задавать. Естественно, задавать нужно те вопросы, которые дают больше информации. Но разве мы можем как-то эту информацию измерить? Оказывается, что да. Для этого можно воспользоваться понятием информационной энтропии. Если говорить грубо, но понятно, то информационная энтропия — это такая характеристика распределения случайной величины (измеряемая, как и информация, в битах), которая показывает, насколько мы не уверены в том, какое значение эта случайная величина примет. Например, если случайная величина принимает значение 1 с вероятностью 0.99, и значение 0 — с вероятностью 0.01, то энтропия такого распределения будет очень близка к нулю. Если же случайная величина принимает, к примеру, значения 0 и 1 с равными вероятностями 0.5 (орел или решка), то энтропия такой случайной величины будет равна 1 биту (это как раз то количество информации, которое мы должны получить, чтобы устранить неопределенность).
Ладно, давайте выбирать каждый раз тот вопрос, ответ на который сильнее всего уменьшит энтропию распределения P(Ai|B), которое как раз и отвечает за наши знания о том, кого загадал игрок. Тут сразу возникает еще одна проблема: вообще говоря, разные ответы на один и тот же вопрос могут уменьшать энтропию по разному. Что же делать? Предлагается находить тот вопрос, для которого ожидаемое уменьшение энтропии будет максимальным. Ожидаемое уменьшение энтропии показывает, насколько «в среднем» уменьшится энтропия, если мы зададим некоторый вопрос. Чтобы не писать здесь еще несколько абзацев текста, приведу формулу, по которой эту величину можно посчитать. Желающие без труда поймут, почему она имеет такой вид. Итак, нужно каждый раз задавать такой вопрос j, для которого величина H[P(Ai|B, )]P( ) +… + H[P(Ai|B, )]P( ) минимальна. Через H[P] тут обозначена энтропия распределения вероятности P, а через » » — событие «на вопрос Qj дан ответ Ans». Величину P( ) можно легко найти по формуле полной вероятности, просуммировав ее, обусловленную по всем известным объектам. То есть P( ) = sum(i) P( |Ai) P(Ai|B).
Оказывается, что такой подход позволяет очень быстро отбрасывать нерелевантные вопросы, сосредотачиваясь на самом главном. В каком-то смысле этот метод является обобщением метода «деления пополам» в вероятностной постановке. Посмотреть, как все это работает вместе, можно на видео ниже.
Как акинатор угадывает? На чем основан принцип его распознавания?
Sergey Litvinov дал ссылку на исчерпывающее описание общей сути алгоритма.
Если же вы хотели получить ответ простыми словами, то можно ответить так.
Но это уже детали. А общий принцип таков: каждый раз после вашего ответа у Акинатора «в голове» остаётся список персонажей, которые соответствуют вашим ответам. И каждый раз он старается задать вопрос, который вычеркнет наибольшее число вариантов, пока не останется один вариант.
В реальности алгоритм Акинатора гораздо масштабнее и хитрее описанного. Он учитывает разные нюансы, в том числе, насколько я заметил, он учитывает тренды (например, допустим, персонажей из сериалов чаще загадывают после того, как закончилась очередная серия). Если много других людей незадолго перед вами вдруг загадали какого-то персонажа, высока вероятность, что и вы тоже решили его загадать. Он даже подстраивается под ваши личные интересы. Если вы, например, любите задавать вопросы о вымышленных персонажах (как мой племянник), Акинатор будет ожидать этого и в следующий раз.
Может казаться чудом, что Акинатор за 20 вопросов часто умудряется отгадать вашего персонажа, ведь он, вроде, и вопросов никаких особых не задал. Однако математика нам говорит, что если бы на каждом из 20 вопросов удавалось подобрать такой вопрос, чтобы ответ всегда отсеивал половину вариантов (как вопрос «женщина ли она»?), то 20 вопросов было бы достаточно, чтобы правильно отличать больше миллиона разных персонажей. А 40 вопросов было бы достаточно, чтобы отличить свыше триллиона (!) персонажей. Акинатор спроектирован так, чтобы как можно лучше находить нужные вопросы, и у него это весьма хорошо получается.