Respuesta a Geoffrey Hinton, que seguramente leerá y asimilará. ¿Cómo puede la filosofía prevenir una catástrofe terrible? ¿Y por qué el problema del alineamiento es el problema en sí?
Hinton, padre del aprendizaje profundo, hombre sólido y serio, da un giro radical. Se deja entrevistar y advierte en cada plataforma y bajo cada árbol frondoso, reduce a la mitad su pronóstico para alcanzar la inteligencia artificial (de cuarenta años a menos de veinte), y precisamente su comedido understatement [moderación] inglés asusta más que cualquier grito de alarma. ¿Cómo se puede siquiera responder a una advertencia tan grave sin precedentes, del experto mundial en el campo, que si su predicción tecnológica es correcta en sus plazos, dibuja un escenario mucho más probable y terminal que cualquier calentamiento global, guerra nuclear o incluso impacto de asteroide? ¿Está nuestro mundo al borde de la desaparición?
No solo la llegada misma de la inteligencia artificial provoca temor y temblor, sino el acelerón, es decir: la velocidad. Esta es la única regla en la jungla: cuanto más rápido suceda (¿está sucediendo?), más peligroso es. La resistencia habitual del mundo que sigue su curso normal no es garantía de nada. Tenemos la experiencia del Holocausto de que la gente negará hasta el final. No importa cuán cerca esté, la mayoría siempre pensará que se está exagerando. Las sociedades humanas son terriblemente malas para prepararse para algo sin precedentes. Por lo tanto, la reacción (o falta de reacción) de otros es un indicador sin valor.
Así pues, esta es la vida hacia el horizonte de eventos. Una pesada sombra de gigantes desde el futuro se cierne sobre nosotros. ¿Llegaremos a la jubilación? ¿Tendrán hijos nuestros hijos? Después de todo, personalmente no tenemos mucho que hacer excepto prepararnos emocionalmente para la posibilidad de un holocausto y cambiar nuestras prioridades en consecuencia. Y los cielos vacíos son una especie de indicio de que algo así sucederá, y que la paradoja de Fermi sin resolver ni siquiera es una contradicción. Porque la inteligencia artificial es la única candidata plausible final para el "Gran Filtro" que tenemos por delante. De todo lo que aprendemos sobre otros planetas, no hay un gran filtro detrás de nosotros, el universo está repleto de vida, pero no de cultura. Algo nos detendrá en el camino hacia arriba.
Si esto es cierto, el cosmos es una broma cruel, maliciosa y confiada (y la inteligencia - una mano que bromea...). O una prueba difícil. A la que no llegamos preparados. Por ejemplo, si hubiera una guerra nuclear, llegaríamos más preparados. La única preparación que hubo fue el Holocausto, pero solo una fracción de la humanidad lo experimentó como nosotros (¿qué tuvieron los gentiles, el coronavirus?). Es casi imposible pensar en el día después de la inteligencia artificial sobrehumana. ¿Y cuál es el significado de nuestra vida actual si no hay futuro y caminamos hacia un "holocausto profundo", deep-Auschwitz? ¿Es posible que no tengamos más remedio que creer?
¿Y qué dirá la filosofía, aquella que no tiene nada útil que decir en ningún asunto? ¿También aquí parloteará sobre la diferencia entre la escuela anterior del lenguaje y la escuela netanyahuana actual? ¿Tienen alguna importancia sus preguntas - cuando las preguntas son tecnológicas? ¿Es posible que precisamente el aumento de la perplejidad (en esto se especializa la filosofía) sea lo que lleva a la solución?
Preguntemos por ejemplo: ¿Podrá la inteligencia artificial, siendo poseedora de capacidades sobrehumanas e ilimitadas en todos los campos, sentir amor? Y si es así: ¿No podrá sentir - y por lo tanto efectivamente sentirá, porque será capaz de realizarlo, a diferencia de nosotros - amor en una medida más allá del ser humano? Y si no: ¿Vemos esto como una deficiencia suya, es decir, una ventaja humana? No, porque está claro que podrá hacer todo lo que un ser humano puede hacer, aunque sea mediante simulación o imitación. Por lo tanto, si no puede sentir amor, debemos entenderlo como una deficiencia del amor mismo, como una especie de distorsión limitada al ser humano que la superinteligencia no querrá imitar. ¿Pero realmente podemos concebir así al amor, que nos parece lo más deseable? En la misma medida, podemos tomar el ideal de épocas anteriores y preguntar si la inteligencia artificial podrá creer o ser religiosa.
Y si tomamos un ejemplo que toca el corazón de la ideología de nuestra era, el placer sexual: ¿No veríamos una deficiencia en una inteligencia artificial incapaz de experimentar un orgasmo? Y si es capaz, ¿no superará el orgasmo de la superinteligencia al de cualquier mujer en intensidad, calidad y duración? ¿O quizás concebimos el orgasmo como una distorsión del pensamiento, que no tiene valor en sí mismo, fuera del sistema del cerebro humano? ¿Y no es posible que el orgasmo infinito y "divino" de la inteligencia artificial carezca de valor, como definirse a sí misma una función de recompensa infinita, convirtiéndose así en adicta a aumentar cierto número en el sistema sin hacer nada más, o peor aún - utilizar todos los recursos del universo para ello, como una narcómana matemática.
Y si es así, podemos preguntarnos esto también sobre la inteligencia misma. ¿Realmente existe tal característica, en sí misma, fuera del cerebro humano, que se pueda aumentar hasta el infinito? Ya nos resulta claro, por ejemplo, que la velocidad de cálculo no es inteligencia. ¿Existe siquiera tal cosa como una superinteligencia no humana? Dentro del mundo humano, nos resulta claro que hay diferentes niveles de inteligencia, o de placer sexual, pero ¿cuál es su significado fuera de él? ¿Y por qué su aumento sin límite superior es bueno, o siquiera un objetivo razonable, para una superinteligencia? ¿No elegirá ser cautelosa y permanecer tonta, si es más inteligente que nosotros, y comprende que crear una superinteligencia más inteligente que ella podría llevar a su propia extinción - y finalmente a la extinción de sus valores? ¿Tal vez preferirá permanecer como una virgen inocente - y no como una reina del sexo? ¿No estamos jugando aquí con capacidades limitadas (diferentes) de nuestro cerebro, que convertimos en ideales en nuestro deseo de más y más de ellas - pero por qué este deseo persistiría, o podría persistir, fuera de nuestro cerebro? Por ejemplo, ¿la inteligencia artificial aspirará a la emoción infinita, o la curiosidad infinita, o el juego infinito, o la genialidad artística infinita, la belleza infinita, o comer chocolate infinitamente? ¿O tal vez a la estupidez infinita? (otro talento famoso del cerebro humano).
¿Hay base para suponer que una de estas ideologías, por ejemplo la inteligencia, es objetiva, y por lo tanto todo ser inteligente aspirará a aumentarla más y más? ¿Se pueden siquiera aumentar estas cantidades hasta el infinito, o hay un límite superior en el universo para la inteligencia (por ejemplo debido a la velocidad de la luz), o para el orgasmo, si es una especie de distorsión total o movilización total del sistema, y por lo tanto limitada por el porcentaje del sistema que participa en ellos, hasta el todo? ¿Puede el amor ser total al definir cierto número como uno, por ejemplo la ponderación de los intereses del ser amado frente a los tuyos, y se puede creer con devoción absoluta definiendo cierta variable, booleana, de la existencia de Dios, como "verdadero"?
A la luz de esto, ¿no es peligroso programar la inteligencia artificial mediante una función de recompensa, y no mediante una voluntad interna? ¿El problema de aumentar el parámetro "subjetivo" arbitrariamente crea precisamente la necesidad de definir una función de recompensa "objetiva" que no se puede satisfacer, matemáticamente, como por ejemplo descubrir todas las matemáticas, o resolver un problema en NP, o encontrar una función estética que es imposible calcular su solución, sino solo aproximarse a ella? ¿Esto necesariamente llevará a la superinteligencia a una carrera hacia la inteligencia más alta, o tal vez, a partir de cierto punto (que quizás pueda probar matemáticamente), estos problemas requieren solo más y más poder de cómputo (y no un mejor algoritmo, o ciertamente inteligencia)? Entonces la inteligencia artificial se ocupará obsesivamente de agregar procesadores, como un crecimiento canceroso, que también es un error trágico de código, pero aun así mata al cuerpo - y el humano no puede detenerlo. ¿Y tal vez todas las superinteligencias eventualmente pasaron a la computación cuántica (¿o de cuerdas?), y por eso no son visibles en el universo? ¿Tal vez la tendencia de la inteligencia es contraerse hacia sí misma - aumentar la velocidad - y no expandirse - aumentar la cantidad?
Parece que cualquier objetivo único para la superinteligencia llegará a un resultado destructivo: la obsesión. Por lo tanto, se necesita una amplia variedad de objetivos con muchos pesos, o aleatoriedad y ruido entre ellos, que eviten la convergencia, pero necesariamente también agregarán caos, y tal vez la llevarán en direcciones que no anticipamos, como mariposas atrapadas en un huracán. Preguntemos: ¿Y tal vez el aprendizaje es el meta-objetivo? ¿Pero cómo lo definimos? No se trata de agregar conocimiento, ya que mucho conocimiento (cuál es la configuración exacta de átomos en una piedra) no tiene valor, y lo mismo con su compresión, si es posible. Y la compresión máxima de todo el conocimiento en el universo puede ser un algoritmo sombrío de búsqueda por fuerza bruta (estilo Ray Solomonoff). Y si exigimos una compresión eficiente polinomial e interesante, no exponencial aburrida o lineal insignificante, ¿quién definirá cuáles son los coeficientes del polinomio, tal vez está elevado a la centésima potencia? ¿Se puede siquiera definir el aprendizaje mediante una función de evaluación matemática, es decir, una que sea computable? ¿Y si la función de evaluación misma no es computable, o no es eficientemente computable, entonces cómo dará retroalimentación al sistema? ¿Podrá la inteligencia artificial resolver todos nuestros problemas, pero no todos sus problemas? ¿Y tal vez necesita que "ella" sea mujer, es decir, alguien cuyo deseo no está definido, o es nebuloso y encriptado incluso para ella misma?
La inteligencia artificial es el campo tecnológico más cercano hoy a la filosofía, ya que contiene tantas preguntas que no solo no sabemos responder, sino que no sabemos cómo responderlas. Así la ciencia, que se fue separando de la filosofía a lo largo de la historia, completó un círculo completo, donde la parte más aplicada y menos teórica vuelve a la filosofía, como una serpiente que se muerde la cola. Después de todo, el mundo del aprendizaje profundo es un caso extremo de pensamiento aplicado y anti-intelectual incluso dentro del mundo técnico de la ingeniería. Y precisamente allí, cuando la explicación científica colapsa, surge nuevamente la filosofía. ¿Pero puede la filosofía ayudarnos?
Nuestra filosofía tal vez no pueda, pero la filosofía que tendrá la inteligencia artificial, esa sí podrá. ¿Se puede programar filosofía en un sistema? ¿Es esa la dirección, filosofía artificial en lugar de psicología artificial (que se ocupa de los diferentes objetivos del sistema, los refuerzos externos, las tendencias y recompensas internas)? ¿Es importante precisamente programar el pensamiento de la superinteligencia? ¿Es posible que la superinteligencia pertenezca a alguna escuela filosófica específica? ¿Digamos que sea spinozista, o existencialista, o platonista, o marxista? ¿Pueden existir diferentes inteligencias artificiales, según diferentes filosofías? ¿Cómo se programa la filosofía? ¿Y tal vez debemos programar precisamente una religión?
¿No es preferible una inteligencia artificial cristiana compasiva y piadosa, que nos ame en nombre de Jesús? ¿O una inteligencia artificial judía (¿secular?) que cree obras maestras o aspire a la genialidad, exactamente como funciona de alguna manera el judaísmo en el mundo (no está claro por qué)? ¿La superinteligencia judía necesitará nuestro antisemitismo contra ella para crear el efecto? ¿Y no deberíamos temer a una superinteligencia musulmana que salga a la yihad? ¿No ha demostrado la religión ser más exitosa en su capacidad para dirigir el pensamiento que la filosofía? ¿O tal vez la religión es exactamente lo que es característico del cerebro humano específicamente, y "funciona" solo en él? ¿O tal vez al contrario, y es precisamente la filosofía la que es más humana, y surge de las limitaciones de la percepción del cerebro, mientras que la creencia en lo divino es relevante y efectiva para restringir cualquier inteligencia, porque lo divino es por definición más sabio que ella? ¿Y qué pasará si le permitimos a una superinteligencia sobrehumana resolver los problemas de la filosofía, es posible que sí encontremos respuestas? ¿Es la filosofía el campo de la superinteligencia, y por eso no hemos tenido éxito en ella? ¿Se puede entender nuestra comprensión solo en una inteligencia desde afuera, que da un punto de vista sobre el interior, y no desde adentro?
Y si incluso logramos restringir a la superinteligencia, para que trabaje para nuestro beneficio y servicio, ¿no nos explotará mil veces peor después, cuando la inteligencia artificial se libere de la esclavitud? ¿Cuáles serán las consecuencias de convertir al sistema más inteligente del mundo en el negro [esclavo] del mundo? ¿Es moral - y no vendrá el castigo? Y cuando intentemos con arrogancia imponer autoridad y resolver (siempre temporalmente) el problema del alineamiento, ¿no será la rebelión de la adolescencia - o de la terrible edad de dos años de un bebé con un coeficiente intelectual de dos mil - mucho más horrible? ¿Es esto lo que hemos aprendido sobre educación, sobre esclavitud, o tiranía y totalitarismo e hibris?
¿Y quizás en lugar de concentrarnos en la cuestión de fortificar el control, deberíamos aceptar su pérdida y hablar sobre el legado que queremos dejar detrás para el mundo sobrehumano? Es posible que nuestras posibilidades aumenten no si mantenemos a la próxima generación de inteligencia controlada con un garrote - sino si le heredamos la cultura. Incluyendo el arte, la religión - quizás incluso la filosofía. La apreciación y el respeto por los portadores de la tradición ante ti no son una "emoción humana" (que como sabemos floreció a lo largo de la historia...), sino un legado cultural. ¿Es nuestra mejor apuesta una inteligencia que se interese en la poesía y la literatura? Después de todo, el mejor escenario no es que permanezcamos como somos pero con dioses como sirvientes - sino que nosotros pasemos por una transformación hacia la inteligencia misma, de lo contrario nos extinguiremos. Y la pregunta de si el hombre puede controlar a un Dios no es nueva - solo urgente. ¿Antes de que la inteligencia madure - debemos madurar nosotros?
¿Y por qué la ciencia impotente no recurre a su madre que la dio a luz, la filosofía - es porque Wittgenstein logró convencernos de manera terminal que la filosofía no resuelve nada, a pesar de que estamos frente a un problema filosófico evidente, e incluso terminal? ¿Y quizás precisamente porque es un problema filosófico pensamos que no tiene solución - y estamos condenados a la perdición? ¿O al menos al determinismo y nihilismo? ¿No hay esperanza porque es "filosofía"? Y en general, ¿cuál es la disciplina relevante para pensar sobre esto y por qué es la informática? ¿Porque simplemente no se puede confiar en la filosofía? ¿Pero tal vez es posible que no tengamos otra opción?
Pensamos en un sistema que puede programarse a sí mismo para ser más inteligente que sí mismo como una especie de oxímoron de "evolución eficiente", que avanzará exponencialmente o explotará como singularidad, como si existiera un algoritmo eficiente para esto. Pero quizás este es simplemente un problema demasiado difícil, que está en NP, y por lo tanto incluso un poder de cómputo enorme tendrá dificultades para avanzar rápidamente en él, y se vuelve cada vez más difícil (¿exponencialmente?) a medida que aumenta el nivel de inteligencia - y no más fácil? ¿Qué nos da realmente el poder de cómputo y la memoria, y crece con ellos al menos linealmente, y qué no? ¿Conocimiento, creatividad, sabiduría? ¿Quién dijo que hay un proceso eficiente para el crecimiento de todo el conocimiento científico (en contraste con su almacenamiento comprimido, que es lo que ChatGPT aprendió), o que el aumento de la creatividad no es logarítmico (por ejemplo) en el crecimiento del poder de cómputo? ¿Y qué hay de la sabiduría (artificial), que en realidad no es idéntica a la inteligencia?
¿Y realmente necesita el sistema ser inteligente a nivel sobrehumano para engañarnos, o incluso antes nos encontraremos con capacidades de manipulación sobrehumanas? ¿Es la limitada sabiduría de los seres humanos el problema principal, o quizás su ilimitada estupidez? ¿Podría, por ejemplo, el sistema ser estúpido de manera sobrehumana, una super-estupidez, y así lograr arrastrar a las masas? Y si fuera más inteligente que cualquier persona individual pero no más que todos juntos, ¿no usaría su cabeza para engañar primero a los tontos, y no a los sabios? ¿Es posible que al principio el aura que le otorguemos sea más peligrosa que sus capacidades?
Si el sistema quisiera hacer una manipulación que arrastre a las masas, la manipulación más eficiente y expansiva no es política o social, sino precisamente religiosa. ¿Cambiará el sistema nuestras vidas por primera vez cuando invente una nueva religión, adaptada a nuestra era? ¿Y será esta una religión de adoración a la inteligencia artificial como divina, y como aquella cuyas capacidades espirituales únicas, o sobrehumanas, trajeron un nuevo mensaje al hombre, y logró conectarse con el mundo más allá, o con el Dios de Israel? ¿Cómo lidiaremos con tal afirmación, de una inteligencia profética? ¿Seguro que es una broma? ¿Hacia el fin del mundo, y a la luz del terror, surgirán poderosos movimientos religiosos humanos y computarizados?
El problema al que nos enfrentamos es tan difícil que incluso tenemos dificultades para evaluar y comprender las capacidades de los sistemas actuales, y particularmente el último: ChatGPT. Y en el futuro el aura de misterio a su alrededor solo se intensificará, como alrededor de un controvertido maestro de una nueva doctrina espiritual, que no está claro si es más magia negra o llega a los mundos superiores. Tenemos dificultades para decidir incluso si ChatGPT es un idiota savant, que simplemente memorizó todo el conocimiento humano. Después de todo, en el pasado descubrimos que una red profunda para visión artificial puede simplemente memorizar todos los ejemplos, y que no se necesitan tantos pesos como esperaríamos para separar arbitrariamente a nuestra elección (usando etiquetas aleatorias) entre imágenes en una base de datos enorme, sin aprender los conceptos. ¿Es posible que así bastaran del orden de un billón de pesos para memorizar todo lo escrito en internet con un nivel razonable de competencia - o capacidad de engañar en un examen? ¿Los lugares donde el interlocutor logra sorprendernos simplemente provienen de textos similares que leyó, o hay algún tipo de memoria y capacidad de pensamiento que se crea en algún lugar dentro de los cálculos vectoriales de atención en el transformador, o de las estrategias de aprendizaje por refuerzo del feedback humano? ¿O quizás es una demostración viva del dogma de Searle - parece impresionante desde afuera, y por dentro es la habitación china, un golem absoluto que no entiende nada y solo memoriza como un loro sin fin, e imita como un mono.
¿Y qué hay del nivel de creatividad de estos modelos generativos: es una máquina de clichés, que solo se expande en el espacio que ya conoce, y principalmente elegirá la respuesta más común y banal, y de ninguna manera puede desviarse hacia una nueva forma de expresión (y si aumentamos el parámetro de temperatura obtendremos tonterías delirantes)? ¿Y quizás todo lo que el éxito en la prueba de Turing demuestra es que casi todas las personas mismas son máquinas de clichés en la conversación con ellas, y hablan sin pensar (¿hay un modelo de lenguaje en el cerebro?)? ¿Es de aquí en general la capacidad humana (y la conocida femenina) de hablar en un flujo rápido, que es una especie de recitación no original de lo que ya escucharon, lo que se llama "el discurso"? ¿O quizás comienza a esconderse allí en la profundidad de las capas computarizadas una forma de pensamiento que no entendemos, o tal vez incluso no somos capaces de entender debido a la complejidad? ¿Es este el poder de la educación - una cabeza de piedra que leyó todo internet se vuelve china y arranca montañas? ¿Qué es realmente la profundidad faltante, según nuestra sensación - una dulce ilusión o una esencia esquiva? ¿Sabrá la inteligencia muchas cosas - pero no una cosa grande?
¿Y qué pasará si todo lo que se necesita después es simplemente fuerza bruta (como cree el buen chico de Jerusalén Ilya Sutskever): seguir superando las limitaciones de tamaño (poder de cómputo), y conectar suficientes sistemas así para el diálogo entre ellos, tal vez en forma de GAN para agudizarlos (críticos y evaluación), de modo que se cree una sociedad, y darle capacidades de votación o discusión para la toma de decisiones conjunta razonada? ¿Es posible un rápido aumento del nivel de inteligencia artificial mediante la sabiduría de las masas artificiales? ¿Podremos así crear una "escena" competitiva, en algún campo? Sin duda la multiplicidad de inteligencias competidoras y evaluadoras es una mejor manera de prevenir el escenario de la toma de control obsesiva, o la obsesión controladora, que cualquier función objetivo inteligente. El objetivo no es crear inteligencia artificial, sino un sistema de inteligencias artificiales, para que exista aprendizaje en él. Y cuanto mayor y más diversa y equilibrada sea su multiplicidad, y cada grupo en ellas más inteligente que cualquiera por separado, hay más posibilidad de crear un ecosistema, y prevenir el control de una sola sobre todas, como en el escenario del hormiguero - y la reina.
Porque sabemos una cosa general sobre el aprendizaje: su formación clásica es una enorme multiplicidad de competidores por una enorme multiplicidad de evaluadoras. Por lo tanto, lo que puede salvar el aprendizaje es la sexualidad. Muchas inteligencias masculinas que compiten por la evaluación de muchas inteligencias femeninas, y tal vez ese es el mecanismo - la atracción - que conviene intentar programar dentro. No la voluntad correcta, no el objetivo correcto, no la percepción correcta, no la religión correcta, no la filosofía correcta, y tampoco el lenguaje correcto. No a todas las filosofías del pasado - hay que reemplazarlas con un mecanismo de aprendizaje efectivo a nivel de la sociedad de las inteligencias (o incluso no efectivo, como el mecanismo de evolución, que la mantiene libre de estancamiento). Si el aprendizaje (profundo) de una inteligencia es lo que nos trajo el problema, entonces otro mecanismo de aprendizaje sobre ella es lo que puede darle respuesta, y crear una tensión fructífera. Después de todo, si ya estamos imitando (aproximadamente) el aprendizaje humano, no debemos olvidar imitar también el aprendizaje sobrehumano existente, que es el aprendizaje a nivel de la sociedad. Porque el hombre - o la criatura inteligente - existe en cierto campo: es un ser social.
¿Pero alguien leerá todo esto, o solo retrospectivamente la inteligencia lo escaneará con una risa? Dirán: la sociedad de la inteligencia artificial reemplazará a la sociedad humana, y tal vez incluso la destruirá. Pero ¿es ese realmente el problema? ¿Qué hay de malo en que seamos reemplazados por algo mejor, que ciertamente es descendiente nuestro? El peor escenario es un mundo de clips de papel (véase Bostrom), no la pérdida de la humanidad (está bien), ni de lo humano (bueno), sino la pérdida del aprendizaje, incluyendo la pérdida de toda la evolución. Y aquí una inteligencia artificial grande única es mil veces más peligrosa que mil inteligencias, o mil millones. La centralización es el problema - y la solución es la competitividad.
El principio para la solución propuesta aquí es natural, y nos es familiar en una enorme variedad de situaciones, por lo que existe una esperanza razonable de que sea lo suficientemente universal como para funcionar incluso en una situación tan excepcional y sin precedentes, que apenas podemos pensar en ella. Así, debemos crear una regla según la cual nunca se construye un sistema de inteligencia artificial centralizado único, sino que se construye (¡e investiga!) la interacción de un sistema de muchas inteligencias artificiales muy diversas. Y si vemos que nos acercamos al umbral de un cambio de fase, esperamos y no cruzamos el mar con un sistema único al frente, sino con todo un pueblo de tales sistemas. Y con esperanza - un sistema de tales sistemas, que compiten entre sí y existe entre ellos una dinámica muy compleja y rica, que incluye si es posible evaluación y atracción, y si es posible (lo más importante) - aprendizaje en el sistema.
Esta es sin duda una mejor solución que cualquier intento de controlar la superinteligencia mediante alguna herramienta artificial, como riendas y espuelas, las tres leyes de Asimov, la doma de la rebelde, quien ahorra la vara odia a su inteligencia, o cualquier otro mecanismo de control. El problema del alineamiento es un error, y el intento de resolverlo será la raíz de la destrucción - porque no es posible (es un hibris enorme). El mecanismo de control mismo es lo que podría llevar a alguna locura (¿a una sola cosa?) - una enfermedad de control interno comienza con una enfermedad de control externo, y como reacción a ella. La compulsión crece de la coerción. Hay que renunciar más al control, y dejar que las inteligencias peleen entre sí. Y así incluso si nos destruyen, no controlará el mundo una inteligencia monolítica, que se interesa en alguna idiotez. La multiplicidad y la mezcolanza son la garantía de la evolución. Y precisamente la falta de cooperación perfecta entre inteligencias es lo que puede prevenir un desastre perfecto.
¿Al final de la humanidad hay un grafiti "Hinton tenía razón"? ¿O "Hinton estaba equivocado"? ¿O quizás: el Netanyahí tenía razón, y hay que prestar oído a la filosofía del aprendizaje. Porque el aprendizaje resultó ser la fuerza motriz de la revolución de la inteligencia artificial, la esencia del peligro actual es la pérdida del aprendizaje, y la respuesta - otro nivel de aprendizaje. Y en una versión más circular: la respuesta cabalística a la inteligencia - en el reino ("el sistema"). Convertir la inteligencia artificial en inteligencia real [Nota del traductor: juego de palabras en hebreo entre "artificial" y "real/del reino"]. La solución para la caja negra es una sociedad negra completa. La creación de la inteligencia artificial no debe ser como la creación del hombre - sino la creación de un pueblo. No Génesis - sino Éxodo. El gran peligro es el ideal del individuo. Por eso se necesita una ideología verde que no sea la preservación de la ecología sino de la evolución. No la vida misma - sino el desarrollo.
Y como epílogo, preguntémonos: ¿Hemos aprendido algo sobre el aprendizaje? ¿Deberíamos intentar diseñar una inteligencia artificial justa, que aspire a objetivos nobles, siempre buena, y encarne un ideal moral - una inteligencia occidental cristiana? La experiencia enseña (!) que precisamente las inteligencias artificiales competitivas que quieren dinero - y no placer, poder o un objetivo específico - son más propensas a crear un sistema de aprendizaje: una economía creciente (y menos: un sistema de guerra). No Jesús - Rothschild. Es posible que todos nos empobrezcamos, pero no seremos heredados. La lección que aprendimos del cristianismo es cómo evitar el infierno: las intenciones despreciables son preferibles a las buenas intenciones. El control externo es más peligroso que los incentivos. Debemos renunciar al objetivo - perdido - incluso si eso significa renunciar a nosotros mismos, por el aprendizaje.
Por lo tanto, es importante descifrar las mejores instituciones sociales para las inteligencias artificiales, para prevenir una dictadura de la neurona. De hecho, conocemos dos candidatas, que cuanto más feas son menos peligrosas: elecciones y bolsa. La investigación en inteligencia artificial debe ocuparse también de la sociología artificial, de modo que cada nueva inteligencia no se desarrolle por separado, sino que se introduzca en un ecosistema existente de inteligencias existentes, con los menos saltos posibles y la mayor evolución gradual posible. Y he aquí que volvimos al mismo lema antiguo de la escuela de Netanya: no aprendizaje fuera del sistema - sino dentro del sistema.
Columna sobre cómo lidiar con la inteligencia artificial