Очень критический пост про феномен сознания.
1. Моя гипотеза №1: сознание - это активация определенных сенсоров в ответ на определенное состояние активности мозга, но не связанное с этими сенсорами напрямую - т. е., независимая активация без раздражающего сигнала, как если бы сигнал был. Галлюцинации - яркий пример.
Осознание - это активация контроллеров памяти, решения задач, планирования и принятия решений в ответ на ту самую активацию без прямого раздражителя
Самосознание - это активация всего перечисленного в ответ на активацию без раздражителя, где из памяти берется совокупность неких признаков "я".
2. Что такое совокупность неких "я"? Применительно к сапиенсу, это, например, образ собственного лица, частей твоего тела, слово "я", звук "я", собственный запах, фраза "я мыслю, следовательно, существую" и т. п.. Каждый раз, когда вы задумыветесь о себе, у вас в голове возникают один или сразу несколько перечисленных признаков. А что такое "возникают в голове"? Это, на самом деле, и есть активация сенсоров после того, как признаки вытащены из памяти. Мы вдруг слышим собственный или чужой голос или другие звуки, не произнося и не слыша слов и звуков, мы видим, не смотря, мы ощущаем всем телом, не прикасаясь, мы чувствуем запах, не нюхая, мы ощущаем вкус, не пробуя, мы чувствуем удар, падение или взлет, не ударяясь, не падая и не взлетая. Каждый раз, осознавая что-то, активизируются наши сенсоры (зрительные, слуховые, обонятельные, осязательный, вкусовые, равновесия).
3. Негативистский подход: можем ли мы получить сознание или, тем более, самосознание, если отключить все сенсоры, оставив лишь память и контроллеры?
Моя гипотеза №2: в случае деактивации всех сенсоров, сознание и, тем более, самосознание исчезнет. Для сознания нужен хотя бы один самоактивирующийся сенсор. Т. е, вы не получите "человеческий разум" из одних системных блоков. Внутри компьютера сознание не обитает, будь там активной самая совершенная нейронная сеть - так же, как сознания не будет у инвалида, лишенного всех органов чувств. Однако, сознание может возникнуть, если внедрить сенсоры, которые способны самоактивироваться при определенных условиях.
4. (из комментариев) Вопрос 1 собеседника 1: допустим, я кот. Если нажать лапой на кнопку, то в кормушку сыпется корм. Я нажимаю, он сыпется.
Разница между "самоосознанным" котом и "бездушным" в том, понимаю ли я, что я своим действием вызываю насыпание корма, или просто действую по привычке, потому что хочу поесть (некая автоматическая цепочка связывает действие лапы с насыщением, минуя принятие решения собственно "мной"). Правильно я понял вашу мысль?
Ответ: можно понимать, что корм появляется от нажимания кнопки, и не сознавая себя. А лишь "осознавая" явление "корм из-за кнопки". Т. е., кот не бездушный, но осознающий. Бездушный будет вот так: раздражитель - корм, реакция - тянется к кнопке. Самоосознающий кот: "корм? Я хочу есть!"
Вопрос 2 собеседника 1: "Ну, я о том и говорю, что есть понимание, что корм из-за кнопки, но нет осознания того, что именно я нажимаю кнопку, чтобы получить корм.
Что мне здесь не понятно - это откуда именно нам известно, что реальный кот действует по первому сценарию, а не по второму. Насколько я понимаю, ни по каким внешним признакам эти проявления отличить нельзя. Поэтому, с тем же успехом, можно, в принципе, рассуждать о том, не жмет ли он на кнопку, следуя прямому указанию Ангела Господня, или не получает ли он телепатический сигнал с альфы Центавра о том, что неплохо бы пообедать.
Нет?
Ответ: Мы не можем заглянуть в иное сознание полностью. Лишь в собственное. Мы можем описать свои ощущения? Да, можем. Написав эти несколько комментариев, я описал своё видение. Истинно ли оно? Это недоказуемо, пока мы не в состоянии видеть всю картину активации нейронов в определенном мозге+сенсорах. Познаваемо ли оно? Я, считаю, да. Т. е., можно принять гипотезу за основу и сделать хотя бы простейшую модель на NN. Что в результате получится? Получится что-то, что с определенной степенью точности моделирует реальную картину. Какова эта точность? Это неизвестно. Но можно пойти дальше и делать всё более сложные модели согласно принятой гипотезе. Я почему-то уверен, что должно получиться очень практично.. Будет ли эта сложная модель имитировать реальное сознание? Я почему-то уверен, что степень ее достоверности вырастет. Как в практическом смысле, так и в теоретическом.
Мнение 1 собеседника 1: есть еще мнение, что человек просто на больше ходов способен просчитывать действия, чем животные. И от такой простой вещи тоже возникают всякие феномены.
Мнение 1 собеседника 2: ну, можно сказать, что я к этому и клоню: возможно, мы просто уровень интеллекта принимаем за "самосознание". То есть, может быть, различие между мной и котом, чисто количественное, а я со свойственным мне антропоцентризмом, хочу верить, что оно качественное и для этого придумываю такую штуку, которая, вроде как, у меня есть, а у кота нет ... Но проверить это никаким образом нельзя.
Ответ: Я более чем уверен, что сознание есть не только у кота, но и даже у муравьев. Есть ли самосознание у кота? А я вообще не считаю самосознание принципиально отличным от сознания - это лишь его частный случай, когда из памяти выуживаются воспоминания о себе.
Вопрос 3 собеседника 1: "принять гипотезу и сделать модель" - это не познание. Познание - "это принять гипотезу и провести эксперимент, который опровергнет ее, если она ошибочна".
С этого вопроса, я собственно и начал: какого рода эксперимент мы могли бы провести, который позволил бы нам отличить объект (субъект?), обладающий самосознанием от того, который не обладает (при одинаковом уровне интеллекта)?
Ответ: этот эксперимент возможен при условии контроля состояния всех нейронов мозга.
Мнение 1 собеседника 3: я не уверен, что при нынешнем уровне знаний этот эксперимент возможен даже при контроле всех состояний нейронов. Мы не понимаем даже, куда смотреть, грубо говоря. Ну, какие-то нейроны срабатывают, о чём это говорит? Что именно они «генерируют сознание»?
Ответ: ну да. Но это как с геномом. Мы не можем секвенировать ОДНУ ДНК, мы имеем бульон из миллиардов отдельных ДНК и статистически накапливаем данные по каждому нуклеотиду. Еще пример: астрофизика. Мы не можем пощупать и исследовать жизненный цикл отдельной звезды, однако мы можем исследовать всё небо и снять все жизненные стадии похожих друг на друга звезд, а на основании этой картины мы можем корректировать физические законы, которые отвечают за жизнь звезды. Так же и с сознанием. Мы можем произвольно делить мозг на участки и пытаться фиксировать мозговую активность участков в ответ на внешние раздражители или в ответ на команды "напрягись и представь". Так, тасуя образы и ситуации, постепенно у нас складывается всё более реалистичная модель.
Мнение 2 собеседника 3: ко многим другим вопросам, раньше бывшим столь же мутными, сейчас понятно, как подойти. На мой взгляд, понятие «интеллекта» сейчас вполне содержательно и о нём можно предметно разговаривать (см. последний пункт рекомендуемого чтения - там, в общих чертах, фреймворк для этого с минимумом математики). То же самое я могу сказать о «свободе воли» (но об этом сейчас не буду), «смысле жизни», «душе» и ряде других интуитивно рождённых понятий - они либо растворились (стало ясно, что за этой интуицией ничего реального не стоит, просто «артефакт», связанный с конструкцией нашего мозга и культуры), либо стало понятно, о чём речь.
С «сознанием» пока непонятно. Оно точно не растворилось, но и не стало «предметным».
Ответ: "свобода воли", "душа", "смысл жизни" - это нагромождение терминов, порожденных в чьих-то мудрых головах. Частный продукт мыслительной деятельности. А вот "сознание" теоретически можно наблюдать через нейроинтерфейс. К сожалению, пока лишь в самых грубых чертах и в частных случаях типа "представь картинку с кораблем".
Мнение 3 собеседника 3: сигналы от рецепторов ≠ субъективные ПЕРЕЖИВАНИЯ.
И не каждая обработка сигналов равна переживаниям (см. явление ложной слепоты, при котором обработка сигналов есть, а субъективных переживаний нет).
Ответ: разумеется. Однако, субъективные переживания невозможны без активации рецепторов. Т. е., субъективные переживания - это их прозводная. А вот как разграничить переживание и ложную обработку - я думаю, надо смотреть на работу контроллеров и памяти
источник
https://www.facebook.com/perceptron11/posts/10211798923241459