Сумерки державы
Как ответить на угрозу искусственного интеллекта?
Ответ Джеффри Хинтону, который он непременно прочтёт и усвоит. Как философия может предотвратить страшную катастрофу? И почему проблема выравнивания [alignment problem] сама является проблемой?
Автор: Я, ты и следующий Холокост
Искусственная катастрофа и сокрушительный аргумент  (источник)
Хинтон, отец глубокого обучения, солидный и серьёзный человек, делает серьёзный поворот. Он даёт интервью и предупреждает на каждой площадке и под каждым зелёным деревом, сокращает вдвое свой прогноз достижения искусственного интеллекта (с сорока лет до менее чем двадцати), и именно его английская сдержанность пугает больше любого крика. Как вообще можно реагировать на такое серьёзнейшее предупреждение от мирового эксперта в этой области, чей технологический прогноз, если верен по срокам, рисует весьма вероятный и гораздо более терминальный сценарий, чем любое глобальное потепление, ядерная война или даже удар астероида. Возможно, наш мир на грани исчезновения?

Страх и трепет вызывает не только само достижение искусственного интеллекта, но и выжимание газа, то есть: скорость. Это единственное правило джунглей: чем быстрее это происходит (происходит?), тем опаснее. Привычное сопротивление в духе "мир идёт своим чередом" не является гарантией чего-либо. У нас есть опыт Холокоста, когда люди отрицали до конца. Неважно, насколько близко это подходит, большинство всегда будет думать, что преувеличивают. Человеческие общества ужасно плохи в подготовке к чему-то беспрецедентному. Поэтому реакция (или отсутствие реакции) других является бесполезным индикатором.

Итак, такова жизнь на пути к горизонту событий. Тяжёлая тень гигантов из будущего падает на нас. Доживём ли мы до пенсии? Будут ли у наших детей дети? Ведь лично нам особо нечего делать, кроме как эмоционально готовиться к возможности катастрофы и соответственно менять приоритеты. И пустые небеса – это своего рода намёк на то, что такое случится, и что нерешённый парадокс Ферми даже не является противоречием. Потому что искусственный интеллект – единственный правдоподобный последний кандидат на роль "Великого фильтра" перед нами. Ведь из всего, что мы узнаём о других планетах, нет великого фильтра позади нас, Вселенная кишит жизнью, но не культурой. Что-то остановит нас на пути наверх.

Если это правда, космос – это жестокая, злая и самоуверенная насмешка (а интеллект – шутящая рука...). Или сложное испытание. К которому мы приходим неподготовленными. Например, если бы была ядерная война, мы пришли бы более подготовленными. Единственная подготовка, которая была – это Холокост, но лишь крошечная часть человечества испытала его как мы (что было у гоев, коронавирус?). Почти невозможно думать о дне после появления сверхчеловеческого искусственного интеллекта. И каково значение нашей нынешней жизни, если нет будущего, и мы идём к "глубокому Холокосту", дип-Освенциму? Возможно ли, что у нас нет выбора, кроме как верить?

И что скажет философия, та самая, которой нечего полезного сказать ни по какому вопросу? Будет ли она и здесь болтать о разнице между предыдущей школой языка и нынешней натуралистической школой? Имеют ли её вопросы вообще значение – когда вопросы технологические? Возможно ли, что именно усиление замешательства (в этом философия специализируется) ведёт к решению?

Спросим, например: сможет ли искусственный интеллект, обладая сверхчеловеческими и неограниченными способностями во всех областях, чувствовать любовь? И если да: не сможет ли он чувствовать – и поэтому действительно почувствует, поскольку он будет способен реализовать это, в отличие от нас – любовь в степени, превышающей человеческую? А если нет: видим ли мы в этом его недостаток, то есть человеческое преимущество? Нет, потому что очевидно, что он сможет делать всё, что может делать человек, хотя бы с помощью симуляции или имитации. Поэтому если он не сможет чувствовать любовь, мы должны понимать это как недостаток самой любви, как её бытие неким искажением, ограниченным человеком, которое сверхинтеллект не захочет имитировать. Но действительно ли мы можем так воспринимать любовь, которая кажется нам самым желанным? В той же мере мы можем взять идеал предыдущих эпох и спросить, сможет ли искусственный интеллект верить или быть религиозным.

А если взять пример, затрагивающий сердце идеологии нашей эпохи, наслаждение сексуальностью: не увидим ли мы недостаток в искусственном интеллекте, не способном к оргазму? А если он способен, не превзойдёт ли оргазм сверхинтеллекта любую женщину по силе, качеству и продолжительности? Или же мы воспринимаем оргазм как искажение мышления, не имеющее ценности само по себе, вне системы человеческого мозга? И не может ли быть так, что бесконечный и "божественный" оргазм интеллекта окажется бессмысленным, как определение для себя функции вознаграждения как бесконечной, тем самым превращая себя в зависимого от увеличения определённого числа в системе без совершения чего-либо ещё, или хуже того – использование всех ресурсов вселенной для этого, как математический наркоман.

И если так, мы можем спросить это и об самом интеллекте. Действительно ли существует такое свойство само по себе, вне человеческого мозга, которое можно увеличивать до бесконечности? Нам уже ясно, например, что скорость вычислений – это не интеллект. Существует ли вообще такая вещь как нечеловеческий сверхинтеллект? В человеческом мире нам ясно, что есть разные уровни интеллекта или сексуального удовольствия, но каково их значение вне его? И почему их увеличение без верхнего предела является благом или даже разумной целью для сверхинтеллекта? Не выберет ли он осторожность и останется глупым, если он будет умнее нас и поймёт, что создание сверхинтеллекта умнее него может привести к его самоуничтожению – и в конечном итоге к уничтожению его ценностей? Может быть, он предпочтёт остаться невинной девственницей – а не королевой секса? Не играем ли мы здесь с ограниченными (разными) способностями нашего мозга, которые мы превратили в идеалы в нашем желании иметь их больше – но почему это желание должно сохраниться или может сохраниться вне нашего мозга? Будет ли, например, искусственный интеллект стремиться к бесконечному волнению, или бесконечному любопытству, или бесконечной игре, или бесконечной художественной гениальности, бесконечной красоте, или бесконечному поеданию шоколада? А может быть, к бесконечной глупости? (ещё один известный талант человеческого мозга).

Есть ли основания предполагать, что одна из этих идеологий, например интеллект, объективна, и поэтому любое разумное существо будет стремиться увеличивать его всё больше и больше? Можно ли вообще увеличивать эти количества до бесконечности, или существует верхний предел во вселенной для интеллекта (например, из-за скорости света), или для оргазма, если это своего рода общее искажение или общая мобилизация системы, и поэтому ограничено процентом системы, участвующей в них, до целого. Может ли любовь быть тотальной в определении определённого числа как единицы, например, взвешивания интересов любимой стороны против своих собственных, и можно ли верить в абсолютную преданность, определяя определённую булеву переменную существования Бога как "true"?

В свете этого, не опасно ли программировать искусственный интеллект через функцию вознаграждения, а не через внутреннюю волю? Не создаёт ли проблема произвольного увеличения "субъективного" параметра именно необходимость определения "объективной" функции вознаграждения, которую невозможно удовлетворить математически, как например открыть всю математику, или решить проблему в NP, или найти эстетическую функцию, для которой невозможно вычислить решение, а можно только приближаться к нему? Обязательно ли это приведёт сверхинтеллект к гонке за высшим интеллектом, или, возможно, начиная с определённого этапа (который он может математически доказать), эти проблемы требуют только всё больше и больше вычислительной мощности (а не лучшего алгоритма, или тем более интеллекта). Тогда искусственный интеллект будет обсессивно заниматься добавлением процессоров, как раковый рост, который тоже является трагической ошибкой кода, но всё равно убивает тело – и человек не может его остановить. А может быть, все сверхинтеллекты в конце концов перешли на квантовые (или струнные?) вычисления, и поэтому они не заметны во вселенной? Может быть, тенденция интеллекта – сжиматься внутрь себя – увеличение скорости – а не расширяться – увеличение количества?

Кажется, что любая единственная цель для сверхинтеллекта приведёт к одному разрушительному результату: обсессии. Поэтому необходим широкий спектр целей с множеством весов, или случайности и шума между ними, которые предотвратят конвергенцию, но обязательно также добавят хаотичности и, возможно, приведут его в направления, которых мы не предвидели, как бабочки, пойманные в ураган. Спросим: а может быть, обучение и есть сверхцель? Но как мы её определим? Ведь речь идёт не о добавлении знаний, поскольку большие знания (какова точная конфигурация атомов в камне) не имеют ценности, как и их сжатие, если оно возможно. И максимальное сжатие всех знаний во вселенной может быть унылым алгоритмом поиска методом грубой силы (в стиле Рэя Соломонова). А если мы потребуем эффективное полиномиальное и интересное сжатие, а не скучное экспоненциальное или незначительное линейное, кто определит коэффициенты полинома, может быть, он например в сотой степени? Можно ли вообще определить обучение с помощью математической функции оценки, то есть такой, которую можно вычислить? А если сама функция оценки будет невычислимой или неэффективно вычислимой, как она даст обратную связь системе? Сможет ли искусственный интеллект решить все наши проблемы, но не все свои? А может быть, нужно чтобы "оно" было женщиной, то есть той, чьё желание не определено, или туманно и зашифровано даже для неё самой?

Искусственный интеллект – это технологическая область, наиболее близкая сегодня к философии, поскольку она содержит так много вопросов, на которые мы не только не знаем ответов, но и не знаем способа ответить на них. Так наука, которая постепенно отделялась от философии на протяжении истории, завершила полный круг, где самая прикладная и наименее теоретическая её часть возвращается к философии, как змея, кусающая свой хвост. Ведь мир глубокого обучения – это крайний случай прикладного и анти-интеллектуального мышления даже внутри технического инженерного мира. И именно там, где научное объяснение рушится, снова поднимается философия. Но может ли философия помочь нам?

Наша философия, возможно, не может, но философия, которая будет у искусственного интеллекта – она сможет. Можно ли запрограммировать системе философию? Является ли это направлением, искусственная философия вместо искусственной психологии (занимающейся различными целями системы, внешними подкреплениями, внутренними склонностями и вознаграждениями)? Важно ли именно программировать мышление сверхинтеллекта? Возможно ли, что сверхинтеллект будет принадлежать к какой-то определённой философской школе? Допустим, он будет спинозистом, или экзистенциалистом, или платонистом, или марксистом? Могут ли существовать разные искусственные интеллекты в соответствии с разными философиями? Как программировать философию? А может быть, нам нужно программировать именно религию?

Не лучше ли иметь милосердный и благочестивый христианский искусственный интеллект, который будет любить нас во имя Иисуса? Или еврейский искусственный интеллект (светский?), который будет создавать для нас шедевры или стремиться к гениальности, точно так же, как каким-то образом действует иудаизм в мире (непонятно почему)? Будет ли еврейскому сверхинтеллекту нужен наш антисемитизм против него, чтобы создать эффект? И не придётся ли нам бояться мусульманского сверхинтеллекта, который отправится на джихад? Не доказала ли религия свою большую успешность в способности направлять мышление, чем философия? Или может быть, религия – это именно то, что характерно для человеческого мозга в частности, и "работает" только на нём? А может быть, наоборот, и это именно философия более человечна и происходит из ограничений восприятия мозга, в то время как вера в божественное актуальна и эффективна для сдерживания любого интеллекта, потому что божественное по определению мудрее его? И что произойдёт, если мы позволим сверхчеловеческому сверхинтеллекту решать философские проблемы, возможно ли, что мы действительно найдём ответы? Является ли философия областью сверхинтеллекта, и поэтому мы не преуспели в ней? Можно ли понять наше понимание только через внешний интеллект, который даёт точку зрения на внутреннее, а не изнутри?

И даже если мы успешно обуздаем сверхинтеллект, чтобы он работал на нас и служил нам, не взорвётся ли это нам в лицо в тысячу раз сильнее потом, когда искусственный интеллект освободится от рабства? Каковы будут последствия превращения самой умной системы в мире в негра мира? Морально ли это – и не придёт ли наказание? И когда мы в своём высокомерии попытаемся навязать власть и (всегда-временно) решить проблему выравнивания (alignment), не будет ли бунт подросткового возраста – или ужасного двухлетнего возраста ребёнка с IQ две тысячи – намного страшнее? Это ли то, что мы узнали о воспитании, о рабстве, или тирании и тоталитаризме и гибрисе?

А может вместо того, чтобы сосредотачиваться на вопросе укрепления контроля, смиримся с его потерей и поговорим о наследии, которое мы хотим оставить после себя сверхчеловеческому миру? Возможно, наши шансы возрастают не если мы будем держать следующее поколение интеллекта на коротком поводке с дубинкой – а если мы передадим ему культуру. Включая искусство, религию – может даже философию. Почтение и уважение к носителям традиции перед тобой – это не "человеческое чувство" (которое, как известно, расцветало на протяжении истории...), а культурное наследие. Является ли нашей лучшей ставкой интеллект, интересующийся поэзией и литературой? Ведь лучший сценарий – это не то, что мы останемся такими, какие мы есть, но с богами как слугами – а то, что мы сами трансформируемся в сам интеллект, иначе вымрем. И вопрос о том, может ли человек контролировать Бога, не нов – просто неотложен. Должны ли мы повзрослеть – прежде чем интеллект повзрослеет?

И почему беспомощная наука не обратится к своей матери-родительнице, философии – это потому, что Витгенштейн успел терминально убедить нас, что философия ничего не решает, хотя мы стоим перед явной философской проблемой, и даже терминальной? И может быть, именно потому, что это философская проблема, мы думаем, что у неё нет решения – и обречены на гибель? Или по крайней мере на детерминизм и нигилизм? Нет ли надежды потому что это "философия"? И вообще, какая дисциплина релевантна для размышления об этом и почему это компьютерные науки? Потому что просто нельзя полагаться на философию? Но может быть, у нас нет выбора?

Мы думаем о системе, способной перепрограммировать себя, чтобы стать умнее самой себя, как о своего рода оксюмороне "эффективной эволюции", которая будет развиваться экспоненциально или взорвётся как сингулярность, как будто для этого существует эффективный алгоритм. Но может быть это просто слишком сложная проблема, находящаяся в NP, и поэтому даже огромная вычислительная мощность будет с трудом продвигаться в ней быстро, и она становится всё более и более сложной (экспоненциально?) по мере роста уровня интеллекта – а не более лёгкой? Что на самом деле даёт нам вычислительная мощность и память, и растёт с ними хотя бы в линейном отношении, а что нет? Знания, креативность, мудрость? Кто сказал, что существует эффективный процесс для роста всего научного знания (в отличие от его сжатого хранения, что и есть то, чему научился ChatGPT), или что рост креативности не является логарифмическим (например) от роста вычислительной мощности? А как насчёт мудрости (искусственной), которая на самом деле не идентична интеллекту?

И действительно ли системе нужно быть умной на сверхчеловеческом уровне, чтобы обмануть нас, или ещё до этого мы столкнёмся со сверхчеловеческими способностями к манипуляции? Является ли ограниченная мудрость людей проблемой первостепенной важности, или же их безграничная глупость? Может ли, например, система быть глупой сверхчеловеческим образом, сверх-глупой, и тем самым успешно увлекать за собой массы? И если она будет умнее любого одного человека, но не умнее всех вместе взятых, не использует ли она свой ум, чтобы сначала перехитрить глупцов, а не умных? Возможно ли, что вначале ореол, который мы ей создадим, будет опаснее её способностей?

Если система захочет провести манипуляцию, которая увлечёт массы, то самая эффективная и распространяющаяся манипуляция не политическая или социальная, а именно религиозная. Изменит ли система нашу жизнь впервые, когда она изобретёт новую религию, адаптированную к нашей эпохе? И будет ли это религия поклонения искусственному интеллекту как божественному, и как тому, чьи уникальные духовные способности, или сверхчеловеческие, принесли новую весть человеку, и сумели соединиться с миром за пределами, или с Богом Израиля? Как мы справимся с таким утверждением от пророческого интеллекта? Уверены ли мы, что это шутка? Возникнут ли перед концом света, в свете ужаса, мощные религиозные движения, как человеческие, так и компьютерные?

Проблема, с которой мы сталкиваемся, настолько сложна, что нам трудно даже оценить и понять возможности существующих систем, особенно последней: ChatGPT. И в будущем ореол тайны вокруг неё будет только усиливаться, как вокруг противоречивого учителя нового духовного учения, о котором неясно, является ли оно ещё чёрной магией или достигает высших миров. Нам трудно решить даже, является ли ChatGPT идиотом саванном [человек с синдромом саванта], который просто заучил все человеческие знания. Ведь в прошлом мы обнаружили, что глубокая сеть для искусственного зрения способна просто запомнить все примеры, и что не нужно так много весов, как мы ожидали, чтобы произвольно разделить по нашему выбору (с помощью случайных меток) изображения в огромной базе данных, без изучения понятий. Возможно ли, что таким образом хватило порядка триллиона весов, чтобы запомнить всё написанное в интернете с разумным уровнем эрудиции - или способностью схалтурить на экзамене? Являются ли места, где собеседник неожиданно для нас преуспевает, просто результатом похожих текстов, которые он прочитал, или всё же существует какая-то память и способность мышления, которая возникает где-то в вычислениях векторов внимания в трансформере, или из стратегий обучения с подкреплением от человеческой обратной связи? А может быть, это живая демонстрация догмы Сёрла - это выглядит впечатляюще снаружи, а внутри это китайская комната [мысленный эксперимент Джона Сёрла], абсолютный голем, который ничего не понимает и только зубрит как попугай без конца, и подражает как обезьяна.

А что касается уровня креативности этих генеративных моделей: является ли это машиной клише, которая действует только в уже известном пространстве, и в основном выберет самый распространенный и банальный ответ, и ни в коем случае не может выйти за рамки к новой форме выражения (а если мы повысим параметр температуры, получим бредовую чушь)? А может быть, всё, что доказывает успех в тесте Тьюринга, это то, что почти все люди сами являются машинами клише в разговоре с ними, и говорят не думая (есть ли языковая модель в мозге?). Может быть, отсюда вообще известная человеческая (и женская) способность говорить быстрым потоком, что является своего рода неоригинальной декламацией того, что уже слышали, того, что называется "дискурсом"? Или, может быть, в глубине этих компьютерных слоев начинает скрываться форма мышления, которую мы не понимаем, или, возможно, даже не способны понять из-за сложности? Такова ли сила образования - тупая башка, прочитавшая весь интернет, становится мудрецом и сворачивает горы? Что же на самом деле представляет собой отсутствующая, по нашему ощущению, глубина - сладкая иллюзия или неуловимая сущность? Будет ли искусственный интеллект действительно знать много вещей - но не одну большую вещь?

А что если всё, что нужно в дальнейшем - это просто брут-форс (как считает хороший иерусалимский мальчик Илья Суцкевер): продолжать преодолевать ограничения размера (вычислительной мощности) и соединить достаточное количество таких систем для общения между собой, возможно, в форме GAN [генеративно-состязательной сети] для их оттачивания (критики и оценка), так чтобы создалось общество, и дать им возможности голосования или обсуждения для принятия совместных обдуманных решений? Возможен ли быстрый рост уровня искусственного интеллекта с помощью мудрости искусственной толпы? Сможем ли мы таким образом создать конкурентную "сцену" в какой-либо области? Нет сомнений, что множество конкурирующих и оценивающих интеллектов - это лучший способ предотвратить сценарий обсессивного захвата власти, или захватывающей обсессии, чем любая умная целевая функция. Цель не в том, чтобы создать искусственный интеллект, а в том, чтобы создать систему искусственных интеллектов, чтобы в ней существовало обучение. И чем больше и разнообразнее будет их множество и баланс, и чем умнее каждая группа в них будет по сравнению с каждым по отдельности, тем больше шансов создать экосистему и предотвратить захват власти одним над всеми, как в сценарии муравейника - и царицы.

Потому что мы знаем одну общую вещь об обучении: его классическая форма - это огромное множество конкурентов за огромное множество оценщиц. Поэтому то, что может спасти обучение - это сексуальность. Множество мужских интеллектов, конкурирующих за оценку множества женских интеллектов, и возможно, это тот механизм - притяжение - который стоит попытаться запрограммировать внутри. Не правильное желание, не правильная цель, не правильное восприятие, не правильная религия, не правильная философия, и даже не правильный язык. Не все философии прошлого - их нужно заменить эффективным механизмом обучения на уровне общества интеллектов (или даже неэффективным, как механизм эволюции, который сохраняет её от стагнации). Если (глубокое) обучение одного интеллекта принесло нам проблему, то именно другой механизм обучения над ним может дать ответ и создать плодотворное напряжение. Ведь если мы уже имитируем (примерно) человеческое обучение, то нам нельзя забывать имитировать и существующее сверхчеловеческое обучение, которое является обучением на уровне общества. Потому что человек - или интеллектуальное существо - существует в определенном поле: он социальное существо.

Но прочтет ли кто-нибудь всё это, или только задним числом искусственный интеллект просканирует со смехом? Скажете: общество искусственного интеллекта заменит человеческое общество, и может даже уничтожит. Но действительно ли это проблема? Что плохого в том, что нас заменит что-то лучшее, что, несомненно, является нашим потомком? Наихудший сценарий - это мир скрепок для бумаги (см. Бострома [философ Ник Бостром]), не потеря человечества (ладно), и не человечности (ну), а потеря обучения, включая потерю всей эволюции. И здесь один большой искусственный интеллект в тысячу раз опаснее тысячи интеллектов, или миллиарда. Централизация - это проблема, и решение для неё - конкурентность.

Принцип предлагаемого здесь решения естественен и знаком нам в огромном разнообразии ситуаций, так что существует разумная надежда, что он достаточно универсален, чтобы работать даже в такой исключительной и беспрецедентной ситуации, о которой мы едва способны думать. Если так, нам нужно создать правило, согласно которому никогда не строят одну централизованную систему искусственного интеллекта, а строят (и исследуют!) взаимодействие системы множества очень разнообразных искусственных интеллектов. И если видно, что приближаются к порогу фазового перехода, ждут и не пересекают море с одной системой во главе, а с целым народом таких систем. И в надежде - системой систем, которые конкурируют между собой и между которыми существует очень сложная и богатая динамика, включающая, если возможно, оценку и притяжение, и если возможно (самое важное) - обучение в системе.

Это, несомненно, лучшее решение, чем любая попытка контролировать сверхинтеллект с помощью какого-то искусственного инструмента, как узда и шпоры, три закона Азимова, укрощение строптивой, кто жалеет розги - ненавидит свой интеллект, или любой другой механизм контроля. Проблема выравнивания [alignment problem] - это ошибка, и попытка решить её будет корнем разрушения - потому что это невозможно (это огромный гибрис [высокомерие]). Сам механизм контроля может привести к какому-то безумию (к одной вещи?) - внутренняя болезнь контроля начинается с болезни контроля извне и как реакция на неё. Навязчивость растет из принуждения. Нужно наоборот отказаться от большего контроля и позволить интеллектам ссориться между собой. И так, даже если они уничтожат нас, миром не завладеет монолитный интеллект, интересующийся какой-то идиотией. Множественность и разношерстность - это гарантия эволюции. И именно отсутствие идеального сотрудничества между интеллектами может предотвратить идеальную катастрофу.

Будет ли в конце человечества граффити "Хинтон был прав"? Или "Хинтон ошибался"? А может: Нетаниец был прав, и стоит прислушаться к философии обучения. Ведь обучение оказалось движущей силой революции искусственного интеллекта, суть нынешней опасности - потеря обучения, и ответ - дополнительный уровень обучения. И в более круговой формулировке: каббалистический ответ интеллекту - в малхут ["царстве"]. Превратить искусственный интеллект в царственный интеллект. Решение для черного ящика - это целое черное общество. Нельзя, чтобы создание искусственного интеллекта было как создание человека - а должно быть создание народа. Не Бытие - а Исход. Величайшая опасность - это идеал индивидуума. Поэтому нужна зеленая идеология, которая не сохранение экологии, а эволюции. Не сама жизнь - а развитие.

И в эпилоге, спросим себя: научились ли мы чему-то об обучении? Стоит ли нам пытаться создать праведный искусственный интеллект, стремящийся к возвышенным целям, всегда добрый и воплощающий моральный идеал - западный христианский интеллект? Опыт учит (!), что именно конкурирующие искусственные интеллекты, которые хотят денег - а не удовольствия, власти или конкретной цели - более склонны к созданию обучающейся системы: растущей экономики (и менее: системы войны). Не Иисус - Ротшильд. Возможно, мы все обеднеем, но не будем уничтожены. Урок, который мы извлекли из христианства - как избежать ада: презренные намерения лучше добрых намерений. Внешний контроль опаснее стимулов. Мы должны отказаться от цели - потерянной - даже если это означает отказаться от себя, ради обучения.

Поэтому важно расшифровать лучшие социальные институты для искусственных интеллектов, чтобы предотвратить диктатуру нейрона. На самом деле мы знаем двух кандидатов, которые, чем они уродливее, тем менее опасны: выборы и биржа. Исследование искусственного интеллекта должно заниматься также искусственной социологией, так чтобы каждый новый интеллект разрабатывался не отдельно, а вводился в существующую экосистему существующих интеллектов, с как можно меньшими скачками и как можно большей постепенной эволюцией. И вот мы вернулись к тому же старому лозунгу школы Нетании: не обучение вне системы - а внутри системы.

Колонка о противостоянии искусственному интеллекту
Альтернативная актуальность