Кажется что все уже прочитали или слышали про книгу Дэвида Грубера. Bullshit job - бессмысленный или ненужный труд, который работник вынужден делать за деньги
Когда я не высыпаюсь, у меня в голове прямо с момента пробуждения и некоторое время после всегда играет какой-нибудь earworm. Кто-нибудь слышал о чем-то подобном? Кто-нибудь страдает тем же? И бонусный вопрос. Есть ли слово/выражение подобное earworm в русском языке?
Элиезер Юдковский, который считается одним из самых-самых думателей про ИИ, написал статью в журнале Тайм, где предложил бомбить (если надо - ядерными бомбами) скопления серверов, достаточно мощных для потенциальной генерации ИИ, сопоставимого с человеческим интеллектом.
Это скорее вопрос для тех, кто знает Юдковского и читал его (так как без предварительного контекста, то что написано выше вызывает у 99% прочитавших в лучшем случае, только усмешку):
Юдковский считает, что мы - хомо сапиенсы - почти наверняка подходим к концу нашего существования, так как ИИ в который не заложены принципы сохранения нас как вида или отдельных особей, убьет нас всех. Впрочем, мы и не знаем как запрограммировать сверхразум на это, а шансы на то, что ИИ вдруг спонтанно решит оставить нас вживых почти нулевые (насколько сильно вы задумываетесь над тем, оставить ли вживых муравьев заведшихся у вас на кухне?)
Есть ли какие-то причины, по которым потенциальный будущий И-сверх-И, решит обращаться с нами лучше, чем мы с муравьями?
Нужны же ему лабораторные мыши для опытов, тем более, что у нас опыт открывания новых материков и период географических открытий на Земле совсем недавно закончился.
Не вполне корректный вопрос. "Облако вокруг ядра" - не более чем наглядный образ, для свободного (несвязанного) электрона подобные образы перестают быть адекватными.
Как прошедший многократно школьную программу, сделал для себя некий перечень абсолютно ненужных знаний, которые, однако, упорно сохраняются в учебниках. В частности это формы электронных облаков и их записи: все эти 1S2P или как там, уже подзабыл. И вдруг бац, кого-то это интересует. :)
Вот если все правильно пишут астронномы, первые звезды через 300 млн лет после Большогог взрыва зажгись. ну потом они повзрывались, почему потом образовались так быстро каменистые планеты, за миллиард, а разрушаются дольше. Вот хоть Землю возьмем. 4 млрд вроде как она образовалась, а возникала еще 4 млрд? А всего 14 млрд после взрыва есть, т.е. за 6 млрд возникли сгорели и взрвались 2 поколения сверхновых, распылили железо, слились не
Чем тяжелее звезда, тем быстрее она эволюционирует и сильнее взрывается в конце. Солнце может неспешно миллиардов 8-10 лет гореть, а тяжёлая звезда выгорает и взрывается за несколько миллионов. Так что времени полно.
Comments 840
Какой процент рабочих мест в современном мире можно классифицировать как bullshit job?
Reply
Reply
Кажется что все уже прочитали или слышали про книгу Дэвида Грубера. Bullshit job - бессмысленный или ненужный труд, который работник вынужден делать за деньги
Reply
Reply
Когда я не высыпаюсь, у меня в голове прямо с момента пробуждения и некоторое время после всегда играет какой-нибудь earworm. Кто-нибудь слышал о чем-то подобном? Кто-нибудь страдает тем же?
И бонусный вопрос. Есть ли слово/выражение подобное earworm в русском языке?
Reply
Перевожу этот термин как "уховёртка".
Reply
Reply
тинитус?
давление померьте и не надо утром вскакивать с кровати.
литр изотонического раствора (всякие спортивные напитки, не энергетики) помогают привести себя в чувство
Reply
Элиезер Юдковский, который считается одним из самых-самых думателей про ИИ, написал статью в журнале Тайм, где предложил бомбить (если надо - ядерными бомбами) скопления серверов, достаточно мощных для потенциальной генерации ИИ, сопоставимого с человеческим интеллектом.
Это скорее вопрос для тех, кто знает Юдковского и читал его (так как без предварительного контекста, то что написано выше вызывает у 99% прочитавших в лучшем случае, только усмешку):
Юдковский считает, что мы - хомо сапиенсы - почти наверняка подходим к концу нашего существования, так как ИИ в который не заложены принципы сохранения нас как вида или отдельных особей, убьет нас всех. Впрочем, мы и не знаем как запрограммировать сверхразум на это, а шансы на то, что ИИ вдруг спонтанно решит оставить нас вживых почти нулевые (насколько сильно вы задумываетесь над тем, оставить ли вживых муравьев заведшихся у вас на кухне?)
Есть ли какие-то причины, по которым потенциальный будущий И-сверх-И, решит обращаться с нами лучше, чем мы с муравьями?
Reply
Reply
а почему мы ему понадобимся для экспансии?
Reply
Reply
если электрон это облако вокруг ядра то в каком состоянии он двигается когда становиться ионом?
Reply
Reply
""Облако вокруг ядра"-"а какая более адекватная модель по вашему? Причем там ведь и "облако " не просто сфера
Reply
В частности это формы электронных облаков и их записи: все эти 1S2P или как там, уже подзабыл.
И вдруг бац, кого-то это интересует. :)
Reply
Reply
Чем тяжелее звезда, тем быстрее она эволюционирует и сильнее взрывается в конце. Солнце может неспешно миллиардов 8-10 лет гореть, а тяжёлая звезда выгорает и взрывается за несколько миллионов. Так что времени полно.
Reply
по другому спрошу, - земле 4 млрд лет, она сформировалась в течении 4 млрд лет, или быстрее?
Если быстрее, то почему?, если именно 4 млрд, а Вселенной 14, откуда взялось столько материи в локальном месте за 6 млрд лет?
Reply
И это не единственное дурацкое место в теории большого взрыва.
Вот ещё: почему мы наблюдаем себя точно в центре вселенной? Ни в какую сторону нет смещения. Точнёхонько.
Reply
Leave a comment