Leave a comment

Comments 63

i_v_bunsha August 4 2017, 19:40:53 UTC
Автор нихрена не понял. Зачем писать о том, о чем вообще не имеешь представление? Ботов с ботам стравливать - последнее дело. Это обычное переобучение. Ошибка накапливается - на выходе шлак.

Reply

instantmanager August 4 2017, 19:47:15 UTC
ну конечно, самые тупые программисты у фэйсбука и гугла

Reply

mechnik August 5 2017, 05:48:52 UTC
Просто кодеры слишком положились на самообучение. Обычный недосмотр.

Reply

i_v_bunsha August 5 2017, 08:17:54 UTC
Не стоит их переоценивать. Посмотрите в Гуглплее сколько там дохлых проектов от Корпорации Добра. Одних месенджеров несколько мегатонн.
У Гугла вообще подход на брейнсторм похож. Нагенерить идей в порядке бреда, а потом мертворожденное прибивать, пока оно бюджет не схавало.

Reply


axsmyth August 4 2017, 19:49:13 UTC
«Машины начали общаться на собственном, несуществующем языке, который люди не понимали».

На самом деле эта фигня началась уже давно. Когда вы думаете, что ваш компьютер завис, на самом деле он думает свои собственные, изобретённые им мысли.

А моя бабушка в таких случаях говорила: «Дураку хоть плюнь в глаза - всё божья роса».

Reply

masterok August 4 2017, 19:50:50 UTC
на счет "плюнь" у нас несколько иначе говорили

Reply


shallgun_force August 4 2017, 20:14:49 UTC
по поводу создания ботами искусственного языка. эта инфа имела бы смысл, если бы рагугль сказал бы всем полную правду, в чем я сомневаюсь. скорей всего всё намного запутанней и возможно хуже. это не слова пессимиста, но скептика. они являются проектом цру, значит все что они преподносят априори ложь и там есть место только меньшей доле правды. запутывают следы. и корпоративные тайны никто не отменял

Reply

mechnik August 5 2017, 05:49:19 UTC
Обострение?

Reply


bigdrum August 4 2017, 21:29:23 UTC
Если у них там был анализатор контекста, то скорее всего из-за неудачных контекстов, порождаемых самими ботами, поплыла настройка. Два зеркала друг напротив друга, слегка кривых...

Reply

mechnik August 5 2017, 05:50:23 UTC
Не думаю, что настройка поплыла. Думаю, изначально были заданы неправильные рамки. Вот и получили полный набор бреда на выходе.

Reply

i_v_bunsha August 8 2017, 16:41:02 UTC
один бот воспроизвел фразу другого, у нее приоритет поднялся, он ее еще раз повторил, система в самовозбужение свалилась... Новые словы они придумывать не умеют, а даже если умели бы, кто подвердит/опровергнет, что они несут смысл? У людей/животных все проще: сморозил фигню - убили нахрен. Вот и весь "генетический алгоритм" обучения, а эти даже плюнуть друг в друга не могут. Плюс опыт у них наверняка близкий, что они могут нового скпзать?

Reply

bigdrum August 8 2017, 16:50:06 UTC
Это зависит от того, какие алгоритмы используются. Адаптивное поведение нейронных сетей (в зеркало на себя гляньте, да?) может быть весьма сложным и непредсказуемым...

Reply


ab_dachshund August 5 2017, 03:34:29 UTC
Этот пример лучше прочего доказывает, насколько переоценены нейронные сети. В смысле, "таинственные" результаты их работы.

Reply

mechnik August 5 2017, 05:50:52 UTC
Нейторнные сети?! Да это просто база скриптов, не более.

Reply

ab_dachshund August 5 2017, 15:50:59 UTC
Тебе-то откуда знать? Ты вон даже не знаешь как они называются.

Я заколебался тебя отгонять. Отстань уже, липучка.

Reply

mechnik August 5 2017, 16:06:34 UTC
О, как ты заводишься на опечатки - просто огонь.

А говорил я про то, что эти боты-говорилки - совсем не нейтронная сеть, а кучка скриптов, которым до ИИ, как до Марса пешком. А весь их "неизвестный язык" - просто ошибка в вилке алгоритма самообучения.

Reply


Leave a comment

Up