Повышение связности ЖЖ

Oct 04, 2011 12:46

Вернулся из отпуска, читаю, что тут понаписали за две недели.

Про сверхсветовые нейтрино: научно-популярное объяснение того, "чем это плохо" (могут, по крайней мере теоретически, нарушать принцип причинности, после чего здравствуй, Грегори); обсуждение в кругу профессионалов (короткое; скептическое)

Про противоречивость аксиоматики Пеано: завязкаRead more... )

linkdump

Leave a comment

Comments 14

bik_top October 4 2011, 09:44:18 UTC
Тебе хорошо, приехал, завязку-развязку сразу прочитал. А мы пару дней как на иголках сидели, боялись, что математику сломали.

Reply


Насчёт тахионного хака реальности kray_zemli October 4 2011, 12:30:50 UTC
Пока физики рассказывают друг другу наукообразные небылицы, эмоционально размахивая руками, я расскажу более приземлённую историю, но руками эмоционально всё-же помахаю ( ... )

Reply

Re: Насчёт тахионного хака реальности _winnie October 4 2011, 22:29:08 UTC
И что?

Reply

Re: Насчёт тахионного хака реальности uuner October 6 2011, 02:40:49 UTC
Интересно. Меня несколько лет назад тоже сбивала машина, и ощущения были очень похожи на то, что вы описываете: "исчезновение картинки" и потом неестественно долго тянущееся время до приземления. Может это адреналин так работает, или какой-нибудь другой механизм, включающийся в крайне опасных ситуациях.

Reply


неограниченно длинных арифметических прогрессий про freedom_of_sea October 4 2011, 14:07:22 UTC
вот это да! А пример можно?

Reply

use the Force plakhov October 4 2011, 16:11:40 UTC
http://en.wikipedia.org/wiki/Primes_in_arithmetic_progression#Largest_known_primes_in_AP

Самая длинная, какую пока нашли в явном виде - 26 штук.

Reply


(The comment has been removed)

aldanur October 4 2011, 20:54:38 UTC
Не то чтобы фейк, но "reconstructed from brain activity" в ролике http://www.youtube.com/watch?NR=1&v=nsjDnYxJ0bo звучит чересчур гордо, учитывая что картинка справа -- просто наложенные друг на друга N ютьюбных роликов, лучше всех поматчивших мозговую активность.

Reply

plakhov October 5 2011, 06:31:21 UTC
Ну и что? Вот это возражение меня всегда удивляло. Есть какая-то дико сложная функция из одного многомерного вектора в другой. Мы насобирали сколько-то примеров того, какому входу какой выход соответствует. Теперь мы восстанавливаем её форму по обучающему набору. Да, естественно, каким-то machine learning-ом - а как ещё?

Ну да, то, насколько хорошо мы будем восстанавливать вход, зависит в том числе и от того, насколько он похож на входы из обучающего набора. А как иначе? Ну да, короткую формулу "как пиксели картинки превращаются в измеряемую мозговую активность" мы получить таким способом не сможем - так её, скорее всего, и не существует.

Reply

aldanur October 5 2011, 11:15:07 UTC
>естественно, каким-то machine learning-ом - а как ещё?
Ну вот вам очевидно, что иначе никак, а я при виде таблички "reconstructed from brain activity" немедленно воображаю простые магические способы видеть картинки в мозговой активности и офигеваю. А потом читаю как оно работает и расстраиваюсь -- опять обошлось без магии.

Ну то есть если человеку показать статистический переводчик и сказать "смотри, это разумный компьютер, он понимает и переводит всё что ему говорят", человек впечатлится дюжиной приведённых скриншотов, завернётся в одеяло и обречённо поползёт навстречу сингулярности. А если ему объяснить "ладно, мы пошутили, эта штука просто знает много параллельных текстов", человек облегчённо вздохнёт и отправится играть с переводчиком в "нас со Стропилой сильно бьёт о башню" с чувством собственного превосходства. Я вот примерно так же себя чувствую -- только вот поиграть не дают и остаётся только верить, что относительно удачные примеры из ютьюбного ролика -- это типичный результат, а не десяток редких случайно удавшихся заходов

Reply


anhinga_anhinga October 5 2011, 02:33:52 UTC
> всем френдить

спасибо за ссылку

Reply


Leave a comment

Up