Прочитал статью https://habr.com/ru/articles/827202/
если раньше считалось, что неокортекс работает как одна большая нейросеть, то сейчас становится очевидно, что он состоит из сотен тысяч отдельных нейросетей, которые анализируют информацию независимо от друг от друга, хотя и обмениваются ею.
По новой теории интеллекта, каждая кортикальная колонка обрабатывает объекты, звуки и остальную информацию целиком. Каждая из этих частичек неокортекса —небольшая неврологическая Вселенная, в которой есть маленький слепок реальности. И при сложении этих слепков мы видим мир таким, каким его себе представляем.
По теории Хокинса, в каждой из колонок есть своя собственная модель какого-то маленького фрагмента реальности. Затем они накладываются друг на друга, и получается общая модель восприятия мира, каким мы его представляем.
множество кортикальных колонок взаимодействуют между собой и как бы «голосуют» за тот вариант, который мы с большой вероятностью увидим. Делают они это на основе опыта. И если варианты очень похожи и нет дополнительной информации, то все равно выбирается только один. Все же знают эти «психологические картинки»: что вы увидели первым? Вы определенно не сможете воспринимать два варианта одновременно. Ваш неокортекс всегда хочет видеть один-единственный ответ.
Каждая кортикальная колонка подобна одному из таких голосующих зрителей. Таким образом, информация, поступающая на вход, одновременно и независимо обрабатывается множеством колонок. Наибольшее количество «голосов» и является результатом нашей мыслительной деятельности.
По сути, все, что связано с нашими мотивами, мечтами, страхами, зависит в основном от лимбической системы. У машины такой системы нет. А потому, хоть она и обретет сознание, но точно не станет подобной человеку.
Но специально учить машину страху смерти, печали или другим эмоциям нет необходимости. Это только мешает познанию мира и рациональному решению задач. Собственно, отсутствие лимбической системы у машины закрывает вопрос о том, захотят ли машины нас поработить и захватить мир. Если, конечно, кому-то не придет в голову пытаться сделать такую систему и навязать машине точку зрения, что люди вызывают плохие эмоции…
Я так думаю что многие люди (включая меня) давно интуитивно пришли к мыслям о том что внутри у них происходит «консенсус», «голосование», «сходка».
Но что из этой теории следует практически? Что можно в большей степени распределённо обучать ИИ. И что большой ИИ сможет быстро работать на большом количестве слабых устройств. При том каждое отдельное устройство находясь в такой сети, не сможет эффективно манипулировать результатами вычислений, поскольку у него не будет возможности доподлинно определить какой именно «фрагмент реальности» «понимает» выполняемая им микро-сеть, иначе как перебором.