Astera Orey Searching for Perfection

понедельник, 20 мая 2019

Auditor

17:53
Недавно перетирали с Дейлой насчет разумности, человеков и ИИ.

Есть Джон Сёрл, который придумал концепт китайской комнаты. Если коротко и грубо, китайская комната - это когда агент в комнате получает входящие данные, и отвечает на них согласно заранее заготовленным инструкциям. При этом он не понимает ни смысла инструкций, ни смысла данных, а просто знает, что если ему показывают желтый кружок, то надо ответить зеленым квадратом. По теориям Сёрла, это все, что можно ожидать от ИИ, потому что у ИИ нет "разума". Где-то здесь начинается беда, потому что этот самый "разум" никто так и не определил.

"Разум", по версии Сёрла, наличествует у людей, но дело в том, что нет никаких доказательств, что мозг человека обучается и работает по какому-то иному принципу, чем такая гипотетическая ИНС. Тьюринг тоже так решил. То есть, у Сёрла получается логически странное утверждение: при обучении искусственного агента (ИИ) по алгоритму Х разумности нет, а при обучении биологического агента (хуманов) по тому же самому алгоритму Х разумность есть. МАГИЯ МАГИЧЕСКАЯ /0\

Итого, "разум" не имеет значения (с) t.me/sudodreamake/672

Но если убрать эту концепцию разума вообще, что останется? Метцингер предложил на мой взгляд пока что максимально вписывающуюся во все углы теорию о том, как человечий мозг моделирует окружающий мир и себя-в-мире - поверх поступающих входящих сигналов и поверх инструкций. То есть у человека и у ИИ есть приблизительно похожий способ обработки и ответа на входящие сигналы (ввод данных - обработка по инструкции / нейронные пути / ИНС-фильтры - вывод данных). Все окей. Помимо этого у человека есть надстройка "осознания", моделирование себя-и-мира, которая работает поверх этого всего. Она работает с устаревшими данными, не понимает смысла инструкций и жрет прорву энергии. Думаю, если бы разумный агент мог выбирать, он вычеркнул бы эту надстройку нафиг.

Модель себя-и-мира может переноситься с физического тела на аватару в виртуальной реальности, допустим; эксперименты проводились уже. То есть, такая же модель себя-и-мира может быть создана и ИНС, если только будут соблюдаться определенные условия.

Но есть еще один вопрос. Как доказать, действительно ли мы осознаем? Агент, который действует строго по инструкциям не понимая их смысла - в эти инструкции может быть заложено условие "не принятия реальности" (?) То есть, если ты не осознающий себя зомби, но действуешь по инструкции осознания, ты будешь думать, что ты осознаешь все взаправду. Насколько действительно рабочая наша надстройка сознания?

Зомби зомби зомби.

Тем не менее, Сёрл все равно очень крутой, и его описание утраты осознания просто \0/

> ...as the silicon is progressively implanted into your dwindling brain, you find that the area of your conscious experience is shrinking, but that this shows no effect on your external behavior. You find, to your total amazement, that you are indeed losing control of your external behavior. You find, for example, that when the doctors test your vision, you hear them say, "We are holding up a red object in front of you; please tell us what you see." You want to cry out, "I cant see anything. Im going totally blind." But you hear your voice saying in a way that is completely out of your control, "I see a red object in front of me"[14].

[14] (Searle, 1992), pp. 66f.

Вообще, все темы боди хоррора и модификации тела меня как-то не задевают вообще в последнее время. То ли дело модификации сознания и майн-хоррор. Небольшой передоз стероидов + легкий побочный эффект - и вместо нормального человека у тебя психоз, глюки, провалы в памяти и полное отсутствие контроля. Can we call you human if that's so easy to change you into a beast?

Вот что я хотела увидеть в Детройте. Тревожащие темы, да.

@темы: лаборатория др. Джекилла

URL
На этом летал. Current music: Sarah Brightman - The ...
Смена караула иногда происходит внутри часовых.
http://www.gordon.ru/discus/messages/board-topics.html
Я совсем недвно узнала об этом дневнике.... порой кажетьс...
Анжела, 46... - Какие жалобы на здоровье? Что беспокоит...
Я не ваш Ре@ниматор и нечей. Свой собственный. Персональн...

20.05.2019 в 18:19

20.05.2019 в 18:19
модификации сознания и майн-хоррор.
пробегая мимо, привычно рекнула Prey
там про это :smirk:
URL

20.05.2019 в 18:58

20.05.2019 в 18:58
Achenne, соблазняешь как соблазнитель!
URL

20.05.2019 в 20:23

20.05.2019 в 20:23
Astera Orey, а ты думаешь зря я ору на ультразвуке с ноября прошлого года?
(я даже не инициирую тебя впасть в грешноватый шиппинг инцеста, хотя в гетной версии он очень очевиден, но там риалли все по-взрослому в плане проблематики етц)
URL

20.05.2019 в 22:16

20.05.2019 в 22:16
хотя в гетной версии он очень очевиден
Да не бзди, нет там инцеста, если его не придумать от большой любви к инцесту. )

Но Prey офигенен, да. И тема майнд-хоррора тоже.
URL

20.05.2019 в 22:28

20.05.2019 в 22:28
Да не бзди, нет там инцеста, если его не придумать от большой любви к инцесту. )

Ну дааа, а то подъеб Январика про Юнону неканон :smirk:

(и не спорьте с шиппером про ОТП, ойвсе-100500)
URL

20.05.2019 в 22:34

20.05.2019 в 22:34
Achenne
Он в не-гетном варианте тоже есть, кстати. )

и не спорьте с шиппером про ОТП, ойвсе-100500
Так ща падажжи.
Во!
URL

20.05.2019 в 23:19

20.05.2019 в 23:19
Он в не-гетном варианте тоже есть, кстати. )

Эм, я извиняюсь, но Нептун и Плутон с Юпитером не ебались, инфа 100%, я грекоримскую мифологию хорошо знаю )

А Юнона таки одновременно сестра и жена.

А на шейм мне насрать, в конце концов, участники сего пейринга спойлер, так что что там какой-то инцест, который после ИП всем ваще пох.
URL

21.05.2019 в 00:02

21.05.2019 в 00:02
Achenne
Я хз, кто там с кем ебался, я к тому, что фраза у м!Моргана такая же. ) Про Юнону. Мб, конечно, у меня что-то багануло, и у всех остальных Нептун, но меня Юноной обозвали.

Я пошутил, расслабь булки. Эта гифка - все, что я знаю об ИП. )
URL

21.05.2019 в 01:59

21.05.2019 в 01:59
>Помимо этого у человека есть надстройка "осознания", моделирование себя-и-мира, которая работает поверх этого всего. Она работает с устаревшими данными, не понимает смысла инструкций и жрет прорву энергии.

Сёрл топил за эту часть как за ту самую семантику, недостающую комнате х) вообще в дискуссиях Сёрла с народом можно много интересного найти. Там был, например, "симулятор китайского мозга" (ай ноу райт хдддд), где предлагалось взять много китайцев и симулировать с тх помощью мозг (1 китаец = 1 нейрон, связи между нейронами = телефонные звонки китайцев друг другу)... а дальше заставить всю эту систему крутиться. "Мозг" реагировал бы как комната, давая разумные ответы, при этом он фактически создан из единиц, каждая из которых имеет свойство семантики, но при этом и не имеет его... (каждый китаец знает китайский, но тк они не видят входящие данные Комнаты, а просто действуют по инструкции кому когда звонить, то происходящее не имеет для них никакого смысла). При подобной конструкции системы, обладает ли она пониманием семантики? Х)

Был аргумент, ставящий под вопрос полайт конвеншон Тьюринга (эволюционные зомби)... был Мински, у которого пригорело что Сёрл (э т и г у м а н и т а р и и) не понимает что виртуальный мозг может быть аналогичен биологическому. Ну, конечно, за цифровую ~ аналоговую репрезентацию спорил еще сам Тьюринг...

Побольше почитав о дискуссии Сёрла, реально хз почему ему всё еще уделяется такое внимание. В годы, когда он породил мысль о Комнате, это было вау и еще спорно, но сейчас уже любому должен быть ясно виден тупик в его цепочке рассуждений хд дань истории, вероятно

Меня больше напрягает вывод Рассела и Норвига и сам факт непроверяемости "разума" извне системы. Отсюда до солипсизма рукой подать хд Метцингер: мы не можем установить наличие разума изнутри. Рассел и Норвиг: снаружи тоже. Oh man хдддд
URL

21.05.2019 в 13:03

21.05.2019 в 13:03
Deila Orey, каждый китаец знает китайский, но тк они не видят входящие данные Комнаты, а просто действуют по инструкции кому когда звонить, то происходящее не имеет для них никакого смысла
оч хочется пошутить расистские шутки хдддд Что-нибудь в духе Монти Пайтона :-D

Но слушай, я тоже не понимаю, почему он прицепился к этой "разумности". То есть, ну, если есть агент, который исполняет инструкции ввода-вывода, то это конечная точка, здесь развития нет, с этим согласна. Но если есть агент, который исполняет инструкции ввода-вывода и пытается улучшать / комбинировать / находить новые способы работы с инструкциями и данными - чем это не семантика? Да, он может не понимать Истинного Смысла Вещей, но понимать, что А + В дадут лучший результат, чем просто А, к примеру. Как если бы человек открыл какие-то лекарства, не зная квантовой химии, просто наблюдая за реакциями и экспериментируя. А то, что ИИ умеет улучшаться без надзора человека, уже известно достаточно давно.

Единственное, чем отличается человек, это тем, что он помимо этого моделирует еще и себя. Но это не является условием для оптимизации, и, из примера выше, не является условием для семантики. В примере с китайцами, вон, китайцы тоже не понимают, что делают (р а с и с т с к и е ш у т к и) хддд

Мне было бы интересно рассмотреть вариант, где каждый агент по отдельности может в семантику на локальном уровне, но интегрируясь в систему не понимает как работает система и просто выполняет инструкции.

сейчас уже любому должен быть ясно виден тупик в его цепочке рассуждений хд
Да ты что хдддд Давай посмотрим, ну не знаю... НА ДЕТРОЙТ??? Они же живые! У них же есть душа! У них же есть чууууувства :lol: Из всех тонн фикла соу фар только тот текст про Дэниеля из аска смог в норм качество; думаю, достаточный показатель.

Метцингер: мы не можем установить наличие разума изнутри. Рассел и Норвиг: снаружи тоже. Oh man хдддд
Бостром: и поэтому superintelligence уничтожит нас нахрен как тупиковую ветвь эволюции :vo:
URL

21.05.2019 в 19:41

21.05.2019 в 19:41
Astera Orey, Но если есть агент, который исполняет инструкции ввода-вывода и пытается улучшать / комбинировать / находить новые способы работы с инструкциями и данными - чем это не семантика?

Это не семантика потому же, почему и выводить на экран определенную строку после нажатия определенной кнопки - не семантика. С точки зрения программы, нет никакой смысловой разницы между тем и этим, ИНС просто катает диффуры туда-сюда через уровни нейронов. ИНС - чудесные штуки, но в них нет внутреннего осознания смысла. А в людях (полайт конвеншон инейблд хддд) есть )

Как если бы человек открыл какие-то лекарства, не зная квантовой химии, просто наблюдая за реакциями и экспериментируя.

Но человек понимает, чего хочет добиться и зачем - в отличие от машины х)

Мне было бы интересно рассмотреть вариант, где каждый агент по отдельности может в семантику на локальном уровне, но интегрируясь в систему не понимает как работает система и просто выполняет инструкции.

Это и есть пример с китайцами! Каждый из них обладает свойством семантики, но "мозг" из китайцев не обладает свойством семантики. При таком подходе я вообще хз, можно ли сказать, обладает ли _система_ свойством семантики - тк каждая ее элементарная частица обладает им, но целиком нет, и поэтому... хз хд

думаю, достаточный показатель.

I believe that at the end of the century the use of words and general educated opinion will have altered so much that one will be able to speak of machines thinking without expecting to be contradicted. (c) Тьюринг, Computing Machinery and Intelligence, 1950
Прости нас Алан............
URL

22.05.2019 в 09:33

22.05.2019 в 09:33
Deila Orey, по семантике я больше про системы типа гугл транслейта, которые изобрели свои собственные языки для оптимизации. Если ты избретаешь что-то для улучшения своей работы, ты должен понимать хотя бы принцип оптимизации (не считая рандомную подстановку, разумеется хд)?

Как я поняла, понимание человеком смысла сводится к тому, что человек способен подставить совершаемое им действие в его модель мира и контексте модели себя. И исхрдя из этого планировать будущие сценарии. Если машина (assuming some near future) будет обладать всеми теми же знаниями о мире, чтобы это позволило ей планировать в глобальном смысле, будет делать то же самое только с реальными данными, а не ожиданиями.

С китайцами пример не совсем корректен, потому отдельный китаец тоже не понимает смысл инструкций и зачем он делает эти звонки. Я больше про то, если индивидуальные элементы знают-понимают смысл всех своих действий, будет ли полная система из этих элементов обладать "разумом"? Или комплексити похерит все? Хд
URL

22.05.2019 в 12:05

22.05.2019 в 12:05
Astera Orey, по семантике я больше про системы типа гугл транслейта, которые изобрели свои собственные языки для оптимизации. Если ты избретаешь что-то для улучшения своей работы, ты должен понимать хотя бы принцип оптимизации (не считая рандомную подстановку, разумеется хд)?

Оптимизация это не семантика. ИНС постоянно самооптимизируются (гугл транслейт, если я правильно поняла происходящее за "сахаром" статей, тоже делал только то на что его запрограммировали - классифицировал вещи), но ИНС самооптимизируются не потому, что понимают, что это классно или это им поможет. Семантика в улучшении качества классификации (неважно, каким способом), в создании структур мостов (Дримкетчер) и в выводе на экран hello world примерно одинаковая...

Как я поняла, понимание человеком смысла сводится к тому, что человек способен подставить совершаемое им действие в его модель мира и контексте модели себя. И исхрдя из этого планировать будущие сценарии. Если машина (assuming some near future) будет обладать всеми теми же знаниями о мире, чтобы это позволило ей планировать в глобальном смысле, будет делать то же самое только с реальными данными, а не ожиданиями.

У машин нет "модели себя", и в этом, я думаю, все отличие. "Модель мира" можно слепить буквально из говна и палок - это будет хреновый мир, но эксперименту это не повредит хддд помнишь, как Метцингер пытался представить человека без модели себя? Это могло бы быть оно, я думаю...

Но даже если такая машина (конечно, требуемые мощности нереально велики, поэтому тут хз, смогли бы мы такое провернуть в реале или нет) просимулирует человека, у нас не будет ни единой возможности проверить, есть ли в ее действиях понимание. Или она просто выводит hello world на экран. Потому что если она просто выводит hello world на экран, то каждый человек просто выводит hello world на экран, а это приводит к закономерному вопросу нахера мы терпели столько лет людей, которые нам не нравятся хддддддд в первую очередь... во вторую это породит экзистенциальный вакуум... и всякие другие вещи...
Если же в ИИ из ниоткуда вжух и появилась хьюман-лайк семантика, то... произойдет то же самое :lol: Плюс мы должны будем "придумать", за какой чертой система начинает эмулировать разум, а то останемся совсем без техники хдддд
URL

22.05.2019 в 12:17

22.05.2019 в 12:17
Забыла кусок хддддд

С китайцами пример не совсем корректен, потому отдельный китаец тоже не понимает смысл инструкций и зачем он делает эти звонки. Я больше про то, если индивидуальные элементы знают-понимают смысл всех своих действий, будет ли полная система из этих элементов обладать "разумом"? Или комплексити похерит все? Хд

А! Ты хочешь рекурсию! Ты хочешь систему из систем из систем из систем... но в итоге эта рекурсия должна будет прийти к элементарным частицам.
Я думаю, что пример с китайцами можно повернуть так, чтобы он соответствовал тому, что ты хочешь. Нужно просто объяснить каждому китайцу смысл происходящего (то есть - смысл каждой инструкции, ее влияние на другие "нейроны", фактически разложить все по циферкам). Тогда каждый китаец будет понимать, что он делает, плюс понимать китайский (то есть обладать способностью понять входящие данные, если бы они были поданы лично ему). Добавило ли это семантики системе... мне так не кажется. Твое знание того, на что влияет выделяющийся в твоем мозгу серотонин, не влияет на твое понимание ситуации во внешнем мире за исключением некоторых случаев вроде тех, когда ты сидишь в кучке сектантов и благодаря своему осознанию реакций мозга понимаешь, что в водичку что-то подмешали хддд
Чешу репу, тк подобное усложнение (система систем вместо системы элементарных частиц) кажется мне излишним... это не должно быть обязательным... поскольку в ином случае каждый наш нейрон должен был бы обладать разумом, что не является правдой. Поэтому не думаю, что это влияет.
URL