Continuamos con la serie de herramientas cognitivas:

Cuello de botella. Es un hecho matemático trivial que un algoritmo no puede funcionar más rápido que el más lento de sus componentes. Así, si tenemos un supercomputador hecho con diez componentes, nueve de los cuales son súper rápidos, siendo tan solo el décimo muy lento, el supercomputador será muy lento. Esta idea me parece que explica muy bien un montón de problemas de eficiencia de cualquier sistema: desde un sencillo microchip hasta el sistema sanitario o educativo de un país, pasando por el equipo de fútbol sala de mi pueblo. Hay multitud de cuellos de botella de diversas formas en muchas partes del funcionamiento de casi todo ¡Detecta y elimínalos ya!

Principio de Ana Karenina (una variante del cuello de botella). Usado por Jared Diamond en su superventas Armas, gérmenes y acero (a cuya lectura no me he animado porque la edición que yo manejo es un tocho con letra minúscula ¡Comprad buenas ediciones! ¡Gastad dinero miserables!), se refiere a que en muchos sistemas, el fallo de tan solo uno de sus elementos da al traste con su función completa. Por ejemplo, pensemos en una operación matemática: hay infinidad de formas de errar pero solo una solución correcta ¡Por eso son tan difíciles! Este principio es una buena herramienta para analizar cualquier cosa: ¿cuántos requisitos necesitamos para conseguir ser felices? ¿Y con que uno de ellos falle todo se va al traste?

Argumento hegeliano. Irónicamente ingeniado por Anthony Chemero, es «todo argumento basado en escasa o nula evidencia científica y orientado a probar a priori la inadecuación de un proyecto o incluso de un programa de investigación empírica al completo». Recordemos que Hegel, el filósofo del dinamismo y del movimiento del universo por excelencia, se negó a ver la teoría de la evolución biológica, precisamente, basándose en principios metafísicos a priori.

Efecto Lindy. Ideado por el ingenioso Taleb, viene a decir que si queremos predecir la duración de un objeto en el tiempo, sencillamente, pensemos en el tiempo que ya ha durado. Taleb sostiene que los objetos más antiguos son los que tienen más probabilidad de seguir existiendo durante más tiempo en el futuro. Esta idea puede servirnos a la hora de elegir un libro o una película. Si un libro se sigue editando después de muchísimos años, o si se sigue hablando de una película a pesar de ser antigua, será porque son buenos. Obviamente, estaríamos renunciado a todo lo nuevo, es la estrategia más conservadora por excelencia, pero a cambio de asegurar la calidad.  Los clásicos se llaman clásicos por algo.

El Homer del futuro. En una escena del episodio 467 de los Simpsons, Homer se está comiendo un tarro de mayonesa mezclada con vodka. Entonces dice: «Esto es problema del Homer del futuro. ¡No me gustaría estar en su pellejo!». De hecho, si pensamos que la continuidad de consciencia es una ilusión, ya que nuestra consciencia va haciendo barridos de forma discreta cada pocos milisegundos, nuestro yo desaparece a cada momento ¡Morimos contínuamente! Entonces, lo que le pase a mi yo del futuro no debería importarme mucho ya que será una persona diferente a mi yo del presente. Yo no creo demasiado en esa idea porque, en cualquier caso, si mi continuidad es una ilusión, en tanto que ilusión es muy real para mí. Pasa como con el libre albedrío. Aunque no sea cierto que elijamos libremente no podemos vivir de otra forma ¿Cómo se pueden tomar decisiones sin creer que se están tomando decisiones? De la misma manera, creo que mi yo de hace diez minutos era yo aunque no lo fuera, y mi yo del presente se preocupa un poco (quizá menos de lo que debería) de mi yo del futuro. De todas maneras, cuando uno está demasiado agobiado por las infinitas obligaciones de la vida adulta, siempre es saludable posponer ciertas preocupaciones y dejárselas a nuestro Homer del futuro.

Lo indisponible. Concepto central en la filosofía de Harmut Rosa, se utiliza para hacer una crítica a los ideales de la modernidad, obstinados en el dominio y el control de todo. La tecno-ciencia intenta que todo esté disponible, que tengamos todo cuando nos apetezca de forma instantánea, pero eso hace que, precisamente, lo que no está disponible cobre cada vez más valor. Y es que la verdadera experiencia vital, lo que hace que todo merezca la pena o tenga sentido, no es algo que esté siempre disponible. Este concepto me recuerda siempre a la lluvia. No sé si por ser oriundo del secarral manchego o por vivir ahora en Granada, adoro que llueva. Me encanta ver llover, pero eso ocurre rara e imprevisiblemente, y eso le da mucho más valor ¿Qué pasaría si viviéramos en el mundo en el que tuviéramos todo en cualquier momento, sueño tecnológico donde los hubiere? Solución en el concepto de animal enfermo unos párrafos más abajo.

Sub aespecie aeternitatis. Bello latinismo popularizado por Spinoza, significa «Desde la perspectiva de la eternidad». Viene a referirse a cuando sostenemos una tesis que consideramos universalmente verdadera (eterna), sin tener en cuenta cualquier elemento contextual o temporal. Es un buen mecanismo de alarma: ¿Lo que estoy diciendo tiene una validez universal o es fruto de mi tiempo/circunstancias/biografía? Seguramente, estaremos más en lo segundo que en lo primero.

La apuesta de PascalReza así: si no sabemos si Dios existe o no, es mejor vivir como si Dios existiera ya que, si es así, gozaremos de la vida eterna en el paraíso, mientras que si vivimos como si no, y al final nos equivocamos, arderemos en el infierno. Buena intuición pero mal argumento. La objeción más fuerte viene desde la perspectiva ética: vivir como si Dios existiera consiste en plegarse a los mandatos que éste nos exige: ser bueno con el prójimo.  Pero, verdaderamente, no es ser bueno hacer el bien solo porque crees que con ello ganarás la vida eterna, sino que ser bueno es hacer el bien a sabiendas que no te va a ocasionar beneficio alguno (Kant dixit). Por tanto, seguir la apuesta de Pascal te llevaría derechito al infierno.

El animal enfermo (das kranke Tier) para Nietzsche. Cuando era joven, en mis últimos años de instituto y durante la carrera, Nietzsche fue un absoluto héroe intelectual para mí. Ahora, no sé si afortunada o desgraciadamente, me encuentro muy lejos, pero eso no quita que todavía conserve, o que se me hayan quedado grabadas tan adentro que ya no se olvidan, influencias suyas. Un concepto que me gustó mucho en aquellos tiempos es su definición del ser humano como animal enfermo. Nietzsche habla de que nos definimos en tanto que animales disfuncionales, defectuosos, incompletos, absurdos. Una tortuga tiene toda su existencia definida, plena de funcionalidad y sentido: una tortuga solo tiene que hacer lo que su naturaleza le dicta, una tortuga es tortuga durante toda su existencia. Sin embargo, el hombre tiene que hacer algo, tiene que elegir darse un tipo de vida concreta, su naturaleza es indeterminada, incompleta, siempre inacabada. Por eso tiene que crear una segunda naturaleza. Para intentar paliar esa carencia de animalidad, se pasa toda su vida luchando contra esta falta de sentido. Y lo más interesante es que esta lucha es interminable, totalmente irresoluble. Estoy seguro que si cumpliera todas mis metas y sueños, me inventaría rápidamente otros, aparte de un buen número de torturas y tormentos variados para mí mismo. En política es igual: estoy completamente seguro que si tuviésemos un sistema político maravilloso, lleno de políticos honorables que se desvelaran por el bien común, todavía existiría muchísima gente quejándose, encontrando mil y un faltas a los ejemplares gobernantes, conspirando continuamente contra ellos. Y es que así somos: siempre quejándonos, nunca conformes, siempre buscando algo no se sabe dónde, siempre sedientos de no se sabe qué bebida. Somos animales enfermos.

Deepety. Término usado por el recientemente fallecido Daniel Dennett (aunque, según parece acuñado por la hija de Joseph Weizenbaum, Miriam Weizenbaum), es un forma de parodiar la falsa profundidad con la que se nos presentan ciertos textos literarios o filosóficos. Una deepety es (os traduzco literalmente del texto de Dennett en Bombas de intuición y otras herramientas de pensamiento): » …una proposición que parece importante y verdadera (y profunda), pero que logra este efecto siendo ambigua. Según una lectura es manifiestamente falsa, pero sería estremecedor si fuera cierta; según la otra lectura, es cierta pero trivial. El oyente desprevenido capta el destello de verdad de la segunda lectura y la devastadora importancia de la primera y piensa: ¡Guau! Eso es muy profundo». Aplicando esta fórmula, te quitas de una tajada un 90% de las chorradas y majaderías que pueblan toda la historia de la literatura y la filosofía occidentales. Es una navaja de Ockham contra el flipamiento en el que parece vivir mucha gente del mundillo intelectualoide. Dennett pone el ejemplo de la frase «El amor es solo una palabra», pero puede aplicarse a tantas y tantas sentencias célebres… ¡Y a sistemas filosóficos completos!

La ciencia en cuestión

En vista de la reciente publicación del libro de Antonio Diéguez La Ciencia en Cuestión (libro que aún no he leído pero que está ya encargado), vamos a hablar un poco de Filosofía de la Ciencia, tema que hace mucho que no tocábamos en el blog. Además, vamos a entrar por la puerta grande con la nada pretenciosa intención de intentar definir la ciencia, asunto que, como no podía ser de otro modo, ha sido central en la disciplina. Y es que cuando la Filosofía se encarga de un campo concreto de estudio, la definición de dicho campo se convierte automáticamente en irresoluble objeto de controversia.

Usualmente, la ciencia ha sido definida (solo a nivel epistemológico, no hablaremos aquí de la ciencia como institución) como un modo de obtención de conocimiento que, prácticamente, equivalía al método científico, siendo éste, esencialmente, el método de la Física. En este sentido, se ligó la ciencia al concepto de ley física en su sentido más básico: enunciado general inferido a través de una colección de datos particulares (es decir, como inducción). Esta concepción, propia del Círculo de Viena, trajo consigo el problema de la demarcación, cuyas conclusiones fueron muy claras: la dificultad de establecer una frontera rígida entre lo que es ciencia y lo que no es, es insalvable (Incluso para algunos como Larry Laudan, es un muy poco fructífero pseudoproblema). Si aplicamos un criterio de verificación estricto, dejamos fuera de la ciencia una gran cantidad de conocimiento asumido tradicionalmente como ciencia de pleno derecho; y si lo abrimos demasiado, se nos puede colar como ciencia mucho contenido que, igualmente, no muchos estarían dispuestos a aceptar como científico.

Situar como ideal, como canon a seguir, el método de la Física, dejaba en serios problemas a un montón de disciplinas cuyo quehacer habitual distaba mucho del de la investigación física. Entre las ciencias naturales clásicas, la Biología se pone en duda al carecer de un corpus legal tan sólido como el de la Física, lo cual no deja de ser paradójico: la Biología, después de triunfar atronadoramente en los últimos siglos, primero con la teoría de la evolución y, segundo, con la genética, se pone en duda como ciencia.

Del mismo modo, se ahonda la brecha entre ciencias y letras, cuando, evidentemente, los saberes humanísticos no usan una metodología que tenga parecido alguno a lo que se hace en un laboratorio de física. Entonces, ¿es la Historia una pseudociencia, es decir, pura y dura charlatanería? ¿La Filología, el Arte, la Filosofía? Y lo que es más grave, si no existe criterio de demarcación alguna llegamos a un todo vale en el que cualquier pseudociencia puede colarse como ciencia auténtica, no ya fuera del campo académico (como puede ser la homeopatía o la astrología), sino dentro de la misma universidad, tal y como evidenciaron Sokal y Bricmont y que, afortunadamente, llevó a un profundo debate sobre el tema.

Creo que hay una forma de aproximarse a este problema, definiendo la ciencia y no aludiendo al método científico, que además nos llevaría a una interminable discusión acerca de en qué consiste ese método (que podría hacernos llegar incluso a la postura radical de Feyerabend: no existe ningún método científico), sino aludiendo a algo más abierto: establecer una serie de criterios, protocolos, prácticas o directrices que consideraríamos deseables para considerar una teoría científica. Sería establecer una serie de ítems de forma bastante débil: ninguno de ellos va a ser una condición necesaria ni suficiente para determinar de modo inexorable la cientificidad de una teoría, pero que, en su conjunto, pueden llevarnos a apostar por ello o, como mínimo, a ponderar de modo razonable la cientificidad de una teoría.

Hay que entender que decir que algo es ciencia, no es más que hacer una valoración, un juicio axiológico, porque los ítems que vamos a proponer no son más que valores cognoscitivos, es decir, una serie de cualidades que, si son poseídas por una teoría, la consideramos valiosa. Nada más. No hay nada en estas valoraciones que nos diga que estamos ante la verdad absoluta ni que hayamos captado el ser o la auténtica realidad en sentido metafísico. Solo estaríamos aceptando la validez de una implicación: si aceptamos como valiosos una serie de valores cognitivos (propios de la tradición occidental como veremos a continuación), y una teoría los posee, entonces dicha teoría será valiosa, es decir, científica.

Protocolos o valores cognoscitivos:

  1. Contacto con la realidad. Evidentemente, es el protocolo más importante, en el sentido de que su incumplimiento total invalidaría cualquier otro (¿para qué querríamos una teoría que no habla de la realidad por muy original o matemáticamente elegante que fuera?), sin embargo, establecer en qué consiste se antoja problemático ya que el mismo concepto de realidad lo es, siendo este tema uno de los centrales en la historia de la filosofía. Reconociendo el problema estableceremos (tal y como hizo Popper) que el contacto con la realidad de una teoría se puede abordar como una cuestión de grado, midiendo una serie de indicadores que puedan decirnos el contenido empírico de una teoría. Dentro de este protocolo vemos significativos otros dos más:

            – Metrización y medición de la realidad: una ciencia ha de ser capaz de delimitar con la mayor precisión posible su objeto de estudio e intentar establecer instrumentos que permitan obtener de él la mayor cantidad y calidad de conocimiento posible. En este sentido se considerará muy valioso que una teoría sea capaz de medir aspectos de la realidad que no hayan sido medidos. Se entenderá una de las conquistas de la ciencia como una progresiva metrización de la realidad. La creación de nuevas unidades de medida y su integración coherente con los sistemas de medición ya conocidos será considerado como muy valioso. Del mismo sentido y como veremos más adelante (en el protocolo 9) la teoría debería permitir o favorecer el descubrimiento de nuevos fenómenos, es decir, estar abierta a la novedad, en vez de cerrada o completa.

            – Preocupación por los instrumentos de observación y medición: una disciplina que se precie de científica debería tener una subdisciplina dedicada a sus propios instrumentos  y herramientas orientada en dos sentidos: uno positivo como una mejora de los instrumentos y otro negativo como un cuestionamiento de la validez obtenida a través de susodichas herramientas. El filósofo de la ciencia canadiense Ian Hacking subraya que la historia de la ciencia no suele caer en la cuenta de la importancia de los instrumentos, entendiendo él que todas las revoluciones de la ciencia han sido, esencialmente, revoluciones en los instrumentos de observación. Es más, sostiene que la propia observación está cargada de práctica competente, es decir, de buen uso en la fabricación y uso de los medios de observación.

  1. Capacidad predictiva. Es una forma muy sugerente de escapar del problema de tener que definir contacto con la realidad, ya que podemos decir de modo muy razonable que si una teoría predice lo que va a ocurrir será porque, precisamente, habla de la realidad ¿Podríamos, no obstante, tener una teoría que pronosticara correctamente el futuro y que fuera falsa? Perfectamente: es el problema de la subdeterminación de teorías: hay infinitas teorías que pueden satisfacer cualquier serie de hechos (la creencia de Bacon de que la realidad nos daría sus fórmulas matemáticas con solo observarla y recoger datos inductivamente, es un mito), que además se complementa perfectamente con la infradeterminación de teorías de Duhem-Quine: cuando refutamos una hipótesis mediante verificación experimental no refutamos la hipótesis de un modo aislado, sino que también refutamos una serie de hipótesis auxiliares, de modo que siempre podemos mantener la hipótesis principal realizando modificaciones en las hipótesis auxiliares de forma indefinida. Sin embargo, la capacidad predictiva puede, al menos, dividir las teorías que la tienen de las que no. De nuevo, siguiendo a Popper, una teoría que dé lugar a hipótesis arriesgadas (con muchos falsadores posibles) pero verificadas experimentalmente, es un signo de que estamos ante una teoría científica. O, dicho de otro modo, parece deseable para una teoría tener una estructura que permita su falsación, es decir, que establezca con claridad qué condiciones deben darse para que la hipótesis sea considerada como falsa.
  2. Coherencia lógica: De forma muy patente, deberíamos descartar cualquier teoría de cuyas proposiciones pueda inferirse una contradicción. Del mismo modo, se buscará que la teoría sea, igualmente, coherente con otras ciencias cuyo estatuto científico ya haya sido validado. Una teoría aislada, incoherente con el resto de ciencias, será sospechosa de considerarse pseudociencia. Como magistralmente nos muestra Mario Bunge, eso ocurre con el psicoanálisis.
  3. Potencia explicativa: una teoría será tanto más científica cuanto más hechos describa o pronostique. Ha parecido siempre como objetivo del saber humano, desde sus inicios en la antigua Jonia, explicar toda la realidad a partir de un único principio, de una única explicación. Tales intentaba buscar el arkhé de la physis y, siguiendo ese mismo proyecto, Newton triunfó rotundamente al explicar todo el movimiento del universo (a escala cósmica) a partir de una única ley, la de gravitación.
  4. Elegancia matemática: una teoría será tanto más científica cuanto más simple sea en el sentido ockhamista del término: entia non sunt multiplicanda praeter necesitatem. Igual que es deseable el alto contenido empírico, en el campo teórico pasa lo contrario: es deseable el máximo adelgazamiento.
  5. Acumulación de conocimiento. Consideraremos positivo para un cuórum teórico el hecho de que los conocimientos anteriores en el tiempo, perduren con el mismo grado de validez que los nuevos conocimientos. No sería aceptable la constancia plena de provisionalidad en el sentido expresado por la visión del avance científico de la obra de Kuhn. Si el conocimiento científico es un conjunto de paradigmas inconmensurables que se suceden en el tiempo, caemos en un inaceptable relativismo histórico que invalidaría automáticamente cualquier adquisición de nuevo conocimiento. A fortiori, parece absurdo aceptar como verdadero un conocimiento que sabemos, a ciencia cierta, que va a ser sustituido por otro diferente (radicalmente diferente, inconmensurable).
  6. Capacidad crítica. Es muy deseable que una teoría tenga mecanismos de revisión que permitan una constante alerta ante el error, ya sea a nivel epistemológico como a nivel institucional (por ejemplo, la clásica revisión por pares de las ciencias naturales, a pesar de sus problemas, constituye el ejemplo por antonomasia). Así, consideraríamos como más científica una teoría que posee mecanismos de autorrevisión y corrección.
  7. Aplicabilidad técnica: una teoría será más científica cuántas más cosas puedan hacerse con ella, o dicho de otro modo, cuantas más aplicaciones técnicas o tecnológicas puedan desarrollarse a partir de ella; y, lógicamente, cuántas más de esas aplicaciones sean verdaderamente útiles para los fines de nuestra sociedad. Nótese que aquí estoy menoscabando la ciencia base o la ciencia más teórica, sí, pero es que me parece obvio que una ciencia es más valiosa si nos vale para algo. No será lo mismo una demostración matemática que resuelve un enigma lógico casi como por divertimento, como podría ser refutar una variante de una apertura de ajedrez, que una investigación para la cura de una determinada enfermedad.
  8. Proyección futura: siguiendo la visión del progreso científico de Lakatos, un ítem de cientificidad podría ser establecer si la teoría constituye un programa de investigación progresivo o degenerativo. Un programa progresivo será el que es capaz de proporcionar una heurística positiva y negativa, en el sentido en que permita nuevos descubrimientos proporcionando unas directrices de lo que se debe o no hacer, de qué caminos hay que seguir y qué caminos parece que están agotados.

Creo que, aunque si somos sutiles, podríamos encontrar teorías científicas que puntuaran muy bajo en este conjunto de ítems, su aplicación serviría para diferenciar con claridad meridiana la ciencia de las clásicas pseudociencias: creo que la astrología, frenología, numerología, quiropráctica, iridología, ufología, etc. se diferenciarían muy bien de las ciencias clásicas.

Por otro lado, las humanidades no deberían, en términos generales, ser examinadas con estos ítems porque muchas de las disciplinas tradicionalmente clasificadas como «de letras» no son ciencias, sin que esto les quite un ápice de valor. Por ejemplo, las artes no pueden ser evaluadas como ciencias porque no tienen nada que ver con ellas: ¿Hay algo de aplicabilidad técnica, coherencia lógica o capacidad predictiva en una sinfonía de Bach o en un cuadro de Velázquez? ¿Y eso les resta valor?

Cartel ciencia

Como ahora está tan de moda hablar de riesgos existenciales para la humanidad, vamos a jugar a hacer algunos cálculos. Cuando nos dicen que hay, por ejemplo, un 10% de que la humanidad se extinga en los próximos años mediante un colapso climático, se nos pone la piel de gallina. Tenemos un 90% de salir vivos pero un 10% ya asusta ¡Hay que tomar medidas sin dudarlo! Y pueden ponerse las cosas mucho peores. Cuando leemos estos espeluznantes percentiles los solemos entender de forma aislada: en un artículo sobre el clima veo solo el porcentaje del fin del mundo por catástrofe climática, mientras que si leo otro sobre la Tercera Guerra Mundial únicamente veré la probabilidad de holocausto nuclear, y si leo otro sobre virus artificiales veré aisladamente la probabilidad de pandemia letal. Pero es que hay que caer en la cuenta de que los distintos escenarios del fin del mundo no son excluyentes, es decir, que no se dé uno no quiere decir que no se vaya a dar otro, por lo que si queremos hacer un pronóstico más acertado del futuro hay que calcular la probabilidad combinada de todos los posibles fines del mundo. Pongamos unos cuantos y estimemos, un poco arbitrariamente eso sí, unos percentiles:

Colapso climático: 10%

Holocausto nuclear: 10%

Pandemia global: 10%

Calculemos. La probabilidad de que no se diera nunca ninguno de los tres fines del mundo es igual a (9/10)*(9/10)*(9/10) = 729/1000. Ahora restamos esa probabilidad de 1 (del 100%), y obtenemos 271/1000, es decir,  un 27,1%.  Este porcentaje va asustando más. Y nos podemos seguir asustando si proponemos más posibles causas del fin del mundo y le asignamos sendas probabilidades. El controvertido filósofo de Oxford, Nick Bostrom, en su artículo Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards de 2002, propone aproximadamente unos veinte riesgos existenciales: mal uso deliberado de nanotecnología, holocausto nuclear, la simulación informática en la que vivimos se cae por alguna causa, una superinteligencia mal programa, un agente biológico diseñado mediante ingeniería genética, un error accidental de nanotecnología, desastres físicos, una enfermedad natural, impacto de cometa o asteroide, calentamiento global descontrolado, agotamiento de recursos naturales o destrucción ecológica, un mal gobierno o cualquier desequilibrio social que detenga el desarrollo tecnológico, presiones genéticas, parón tecnológico, una super mente subida a la red toma el control, una superinteligencia defectuosa (que parece que no es lo mismo que mal programada), un régimen totalitario global, la degeneración de nuestros valores fundamentales en una carrera por la colonización del cosmos (muy rara ¿no?), exterminio por una civilización extraterrestre y, por supuesto, algo imprevisto.

Siendo equitativos, y para que nadie se ofenda, ponderamos todos estos riesgos por igual, con un 10% de posibilidades. Hacemos el cálculo otra vez. La probabilidad de que nada ocurra es de (9/10) elevado a 20, es decir, de 0.12157665459. Lo restamos de nuevo a 1 y nos da un 87,84% de posibilidades de holocausto final. Si Bostrom ha enumerado bien todos los riesgos existenciales posibles y si cada uno de ellos tiene, al menos, un 10% de posibilidades de ocurrir, rezad todo lo que sabéis, porque el doomsday va a llegar.

Pero tranquilos, que todo esto no son más que sandeces variadas. En primer lugar me gustaría saber cómo calculan los percentiles de partida ¿Cómo calculan que hay un 10% de probabilidades de colapso climático? ¿Por qué no 23,46% o 99,12%? ¿Cómo alguien puede saber de alguna manera las probabilidades de un holocausto nuclear? Respuesta: se los inventan, se los sacan de la chistera arbitrariamente, basándose, a lo sumo, en intuiciones y corazonadas. Me hace gracia cuando se hace una encuesta a nosecuantos expertos de un campo de investigación, preguntándoles cuánto queda para que llegue tal o cual avance, como la cura del cáncer o la teletransportación a escala humana. Con los datos recogidos se hace un promedio y se saca un titular: «Según la medicina el cáncer tendrá cura para 2035». Estudio absurdo porque el promedio no indica absolutamente nada, ya que cada entrevistado se ha inventado el dato. Si el médico en cuestión acaba de leer un artículo en donde se ve un progreso en el campo, estará más optimista y apostará por una fecha más cercana, mientras que si ha discutido con su pareja o no ha desayunado pondrá una fecha más lejana. Nadie puede hablar con propiedad de fechas porque si se pudiera, ya estarían muy cerca del descubrimiento. Precisamente, no saber cómo curar el cáncer es no saber también cuándo llegará su cura.

Y en segundo lugar: una trampa estadística consistiría en ir añadiendo más posibles fines del mundo: cuantos más pongamos, más porcentaje a favor del doomsday.  Bostrom pone unos veinte, pero podríamos echarle más imaginación (aunque reconozco que más que Bostrom es difícil) y poner más, subiendo cada vez un poquito más el percentil ¿Y si proponemos un apocalipsis zombi? O varios tipos de éste y así subimos aún más: zombis debido a un virus, zombis debido a la radioactividad de un ensayo nuclear que salió mal, zombis debido a un proyecto militar de crear un soldado perfecto… ¿Y la rebelión de los simios? ¿Nadie recuerda ya a Charlton Heston gritando descorazonado al ver la Estatua de la Libertad semienterrada en una playa? O, pensando en una película que a mí me gustó mucho: ¿Por qué no la llegada de una especie de demonios que si los ves te suicidas? ¿No recordáis a Sandra Bullock navegando por los rápidos con niño y niña? ¿No os acordáis de Birdbox (titulada en España como «A ciegas»)? O, lo pongo un poco más difícil: ¿Alguién ha leído El día de los Trífidos de John Wyndham (hay una miniserie pero creo que es muy mala)? Habla de una rebelión de las plantas (en ella se basó El Incidente de Shyamalan).

Con esto del fin del mundo, nuestra memoria colectiva está muy cargada de ciencia-ficción, y eso hace que distorsionemos mucho nuestro juicio. Pero una cosa es que el común de los mortales yerre en sus pronósticos y otra que los responsables de la comunidad académica, científica y tecnológica caigan en las mismas estupideces. La ciencia-ficción es maravillosa, pero desde luego, no puede ser una herramienta fiable para pronosticar el futuro. Y no me canso de repetir que la estadística es una herramienta fundamental para comprender el mundo (Y no puedo creer lo poco conocida que es en mi gremio), pero hay que saber que también puede usarse de manera muy tramposa. Bostrom hace un juego mezclando fantasía y trampas de probabilidad. No le hagáis mucho caso.

Post Data: en muy poquito saldrá un libro titulado Superar la «adolescencia tecnológica»: materiales para un debate en la que varios autores reflexionamos sobre el impacto de la tecnología en el mundo actual. Mi aportación es una reflexión mucho más amplia que la de esta entrada, precisamente, sobre si tenemos que tomarnos en serio los riesgos existenciales pronosticados por estos nuevos profetas ¡Comprad el libro! Ya os avisaré cuando esté en las librerías.

Me resulta bastante inquietante, por lo común que suele darse, que de cualquier tema opine todo el mundo menos quien realmente sabe. Todos parecemos saber más de fútbol que el seleccionador nacional, o saber qué es lo que conviene al país mejor que todo el consejo de ministros, pero es que incluso en temas científicos o tecnológicos, vemos opinar rotundamente en los medios a gente que desconoce los más básicos rudimentos de la disciplina de la que está hablando. Así, cuando oímos hablar de que la inteligencia artificial está a punto de cobrar consciencia (o incluso que ya lo ha conseguido), me resulta escandaloso que nadie se haya parado a preguntar a los que, verdaderamente, han estudiado profundamente el tema. Es más, los que sostienen que un programa de ordenador es capaz de generar consciencia, ya sea como una propiedad emergente, ya sea de cualquier de otra forma, están dando por sentada una teoría computacionalista de la mente en su versión más dura, lo cual no es, para nada, algo consensuado en la comunidad académica. En filosofía de la mente hay muchas teorías sobre la naturaleza de los estados mentales que no son computacionalistas, o que son muy críticas con el computacionalismo. Es por ello que, desde este blog, quiero contribuir a subsanar un poco el asunto, preguntando a uno de los mayores expertos del mundo en el estudio de la consciencia, el profesor Riccardo Manzotti, quien ha tenido la inmensa amabilidad de aceptar esta entrevista.

Manzotti es filósofo, psicólogo y trabaja como profesor de Filosofía Teórica en la Universidad Libre de Lengua y Comunicación de Milán. Ha publicado multitud de artículos científicos sobre la consciencia y su posibilidad de implementarse en máquinas, así como de filosofía de la mente, medios de comunicación e incluso filosofía del arte. Es editor ejecutivo del  Journal of Artificial Intelligence and Consciousness y ha escrito varios libros como The Spread Mind: Why Consciousness and the World Are One (ORBooks, NewYork, 2018), Dialogues on Consciousness (junto con Tim Parks, NY, 2018), y la reciente Io & Ia Mente, Cervello e GPT (junto con Simone Rossi, editada por Rubbettino, 2023), desgraciadamente ninguno de ellos traducido al castellano (razón de más por la que he querido entrevistarlo).

Adjunto la entrevista en inglés y luego traducida al castellano.

Entrevista original en inglés:

  1. What is consciousness? Is it an illusion as Dennett maintains? A controlled hallucination as Seth thinks? An epiphenomenon? Or does it have a clear biological purpose? Why does consciousness exist even though we can build machines that do the same thing as conscious beings but without being conscious?

We must exercise great caution in the way we frame our questions, for the nature of their formulation often precludes certain answers. When every response appears lacking, it behooves us to step back and reevaluate both the question and its presentation. This is particularly true in the case of inquiries about consciousness. Such questioning presupposes consciousness to be a phenomenon that exists over and above the standard physical description. As a result, it is relegated to being either an illusion or a mere epiphenomenon—if it were not, it would not be alien to the standard account. This leads to a patently absurd conclusion. To escape this intellectual cul-de-sac, we must revisit the original query: why do we seek to understand consciousness? The answer lies in recognizing that consciousness is a flawed solution to a non-existent problem: namely, how it is possible for something (a body, for instance) to experience something else (an object) that is distinct. This problem is rooted in the assumption that we are separate from the objects we experience, living our lives within the confines of our bodies. Fortunately, we have the opportunity to challenge this assumption, entertaining the possibility that, at the fundamental level, we are not separate from the external world but are, in fact, one with it.

  1. Is the hard problem of consciousness solvable? Will we ever have a complete understanding of what consciousness means? Or are skeptics, like Colin McGinn, right? And, in any case, why is researching consciousness so difficult for us?

As I mentioned earlier, the difficulty of the problem stems from its misguided formulation. The mistake lies in seeking consciousness as a special property of nervous systems, one that would inexplicably enable them to reach out to and represent (experience) the external world. This is indeed an impossibility, akin to asking our brains to perform a miracle. Many are beguiled by the notion that the brain can miraculously transform the ‘water’ of neurons into the ‘wine’ of consciousness, as Colin McGinn once wrote, but this is a fallacy. When we ask the physical world to achieve the impossible, it’s no surprise that we never discover how it might be done. The failure is not due to a lack of intelligence on our part, but simply because it does not occur. It’s impossible. If we demand nature to perform the impossible, it will never happen. Hence, the pursuit of consciousness and the recent disillusionments in the Templeton Foundation-funded adversarial competition between IIT and GWNT are destined to be a waste of time and resources. What is needed instead is a reframing of the question, one that does not cast consciousness as a miracle, but as a reflection of how reality is structured and organized.

  1. You have proposed the controversial hypothesis that consciousness and the world are one and the same. It is a controversial idea because traditional science maintains the existence of an external world different from our mind. Could you give us a series of arguments to convince the seasoned naturalists who believe that consciousness is in the brain and not in the world?

Indeed, this hypothesis is controversial not because it contradicts any empirical evidence or because it requires (as nearly all other theories do) additional and extraordinary assumptions, but solely because it challenges deep-seated prejudices, primarily the belief in being a mind separate from the physical world. My hypothesis, known as Mind-Object Identity (MOI), is fully consistent with empirical data, ontologically more coherent than other hypotheses, and does not require additional assumptions. Let me elaborate. To this day, after 150 years of brain imaging, there is no empirical evidence for the presence of consciousness within the brain. Not only has no one ever measured or photographed a conscious sensation within the nervous system, but no neural event has been found to be caused or altered by the supposed presence of consciousness. Consciousness, within the nervous system, is both invisible and epiphenomenal. How can we continue to believe it resides within the nervous system?

Now, consider a common perceptual experience: seeing a banana. There exists an object with properties that we encounter in our existence – shape, color, size – and there exists our nervous system with completely different properties. What do we find within our moment of existence: the properties of the banana or those of the nervous system? Clearly, we find the properties of the banana. What then should be the logical conclusion? Are we one with the object whose properties are part of our existence, or are we another physical system (the nervous system) that, as if by magic, appropriates physical properties it does not have? The only reason to think of ourselves as the nervous system or located within it is neither empirical nor existential, but tied to a tenacious prejudice: the idea of being behind the eyes and between the ears.

The Mind-Object Identity hypothesis is akin to the Mind-Brain Identity theory. In this regard, it aligns epistemically with science. Simply put, the hypothesis posits that instead of being a brain that mysteriously experiences a range of things, we are the things that, through a brain, produce effects. There’s nothing mysterious about this definition.

Compare this hypothesis with the burdensome complexity of theories based on enigmatic postulates or those that are ontologically costly. The Mind-Object Identity approach is far more efficacious and convincing than all of these. Its only flaw is that it challenges us to discard the superstitious belief that the mind resides within the body.

  1. Some authors such as Philip Goff argue that traditional science is not capable of explaining consciousness, so we would need a new type of science to study it. Others, like Hameroff, Kauffman or Stapp, rely on quantum physics to find some light. What do you think of these proposals? Do we have to get away from traditional science or is there still much to do without leaving it?

People who challenge traditional science often make desperate moves to preserve their biases. Instead of questioning the separation between mind and world, they opt to spread dualism across all of reality, proposing positions like panpsychism or forms of idealism. Others, like the Quantum Mechanics (QM) enthusiasts, hope that by rubbing the magic lamp of quantum mechanics enough, the genie of consciousness will emerge. These are acts of desperation. Rather than continuing to propose absurdities, we must simply question what we believe we know but have never experimentally found. Science is doing just fine; there’s no mystery to add, but rather unfounded beliefs to remove.

The Mind-Object Identity (MOI) does not require any modification of science or our naturalistic view of the world. MOI simply asks us to look at science and our existence without one assumption – the separation between us and the world – which is not part of science; something that was added to incorporate popular but unfounded superstitious beliefs into the scientific method.

Many believe that science is completely objective. In reality, many ideas nestled within the scientific method are not its products at all. In the past, these ideas might have served as useful simplifications, but the time has come to question them.

  1. This September, 124 researchers signed a letter [1] accusing Tononi’s Information Integration Theory of being pseudoscience. Would you agree with these accusations? Are they exaggerated? Do they obey a certain foul play between scientific rivals? Or, truly, is the king naked?

Finally, someone has felt the need to challenge Integrated Information Theory (IIT), which is not a scientific theory. I completely agree with the authors of the letter. The problem with IIT is that it is neither a scientific theory (based on unproven and unprovable postulates) nor a theory of consciousness. Let me elaborate on the latter point. Suppose, for argument’s sake, that the brain somehow realizes integrated information, a claim I find both ontologically and empirically dubious. But let’s assume it for a moment. Question: why should integrated information possess the qualities of consciousness? Why, for instance, should an integrated information value of 1055 (phi) correspond to the taste of chocolate? Is there any scientific article (even one that’s hyperbolically speculative) that explains how we go from IIT’s numbers to the properties of consciousness? For example, why should a certain value produce the sensation of red, and another value the sensation of wasabi? Nothing. On this point, why and how integrated information should equate to a particular conscious experience, Tononi and all his supporters have been conspicuously silent and have always remained mute. Therefore, even if IIT worked (which it doesn’t), it would not be an explanation of consciousness and would defer to a further mystery. Not that the opposing theory, the Global Workspace Neuronal Theory (GWNT), is any better. To be fair, all the theories currently accepted for consciousness research should have been declared pseudoscientific. Simply because they would explain nothing, even if they were correct.

The real question is, why are these theories taken seriously and have justified and wasted significant funding? This is more a question of the psychology and sociology of scientific research than of consciousness. A possible explanation is that these theories satisfy the primary motivation of neuroscientists to search for consciousness within the brain: the hope and conviction that the problem of consciousness will find a solution within their own research departments.

One day, all these theories will be relegated as cases of stubbornness by disciplinary sectors and forgotten like land bridges, epicycles, and the luminiferous ether.

  1. A few months ago, the specialized press gave a lot of publicity to the case of Blake Lemoine, a Google engineer who thought that LaMDA, a chatbot specially designed to maintain very realistic conversations, was a conscious entity. Immediately, Google suspended him from employment and salary for violating company confidentiality policies. Lemoine argued that conversations with LaMDA revealed a high degree of intelligence, coherence and persistence over time, which, according to him, turned this artificial intelligence into a person. Could Lemoine have a point? Do large language models like GPT-4, Bard or Claude represent some kind of advance in the field of artificial consciousness?

Why should they? Again, from Plato to the present, thought has been conceived as a kind of internal computation of the system; a computational version of animism that is completely unjustified from a naturalistic standpoint. This is not to deny that machines might one day, not too distantly, akin to bodies, form the same type of causal reference system that binds together a world of objects we call mind. There’s no biological chauvinism on my part. But this won’t happen because information or computations within a system will magically become conscious. Rather, it will be because a physical system, natural or artificial, will be capable of being the juncture point of a set of events and things that are one with a mind.

  1. Thomas Metzinger wrote an article in 2021 [2] where, like the famous letter signed by Elon Musk and many others regarding artificial intelligence, he called for a moratorium on the research and development of artificial consciousness. Would you agree with Metzinger? Should we stop research in artificial consciousness until we are very clear about the ethical principles that will regulate advances? Or perhaps this would only delay the investigation?

It strikes me as a ludicrous proposal founded on the aforementioned outdated conceptions.

  1. A lot of researchers are warning about the enormous risk involved in the development of artificial intelligence. Highly prestigious researchers such as Geoffrey Hinton, Yoshua Bengio or Stuart Russell appear in the media alerting us of a serious emerging danger. There is even talk of an existential risk for humanity. Should we be afraid of artificial intelligence? Or is this nothing more than hype or marketing? Have we seen too many science fiction movies or is there much truth in these statements?

The risk is real, not because artificial intelligence might conquer the world in a Terminator-like scenario, but because when AI reaches the level of Artificial General Intelligence (AGI), it will render obsolete most tasks that currently underpin our economic system. It is often said that new jobs will be created, jobs we cannot even imagine today. Looking at my students, I am not so sure.

  1. What would you recommend to young researchers entering the field of artificial consciousness? What could be a promising path forward?

I would say that today the field of artificial consciousness is not a true field, and thus it is not advisable to invest in it at the beginning of one’s career. It’s more a horizon of research than a discipline. Moreover, it is currently dominated by attempts to achieve consciousness by replicating portions of cognitive processes that, in humans, are normally experienced consciously. However, there are no significant results because each of these processes could occur in the absence of consciousness. As I tried to explain earlier, I don’t believe that anyone will one day find the code that ‘switches on’ consciousness within an artificial intelligence. The research is still conditioned by a computationalist and internalist conception that needs to be overcome.

  1. What are you researching right now? What do you want to discover? What are your future projects?

At the moment, I am engaged in three different areas. The first involves finding ways to persuade people to look at the problem of consciousness from a perspective different from the traditional one. The second is working on models in the field of artificial intelligence that could one day integrate a machine with the external world, as happens in the case of the human body. The third, which I’ve saved for last because it could be the turning point, is to work on an experiment that demonstrates the Mind-Object Identity (MOI). Since the MOI is an entirely empirical hypothesis within the physical world, it should be possible to make predictions about unusual situations, such as the ability to add new categories of objects – new senses – to our existence. For instance, why can’t we enable a human being to perceive physical properties normally outside our senses, like ultraviolet, electromagnetic fields, infrared? The MOI suggests exactly the experimental circumstances that would allow for direct interfaces to the nervous system that expand our existence (not like when we look through an infrared viewer and see green pixels, but as if we were endowed with infrared vision like an alien). A few years ago, conducting this kind of experiment – and potentially applications – would have been very difficult, but today with Neuralink and other tools like the artificial cochlea, one could conceive a truly revolutionary experiment. Should Elon Musk come across interview, he is warmly encouraged to get in touch with me! 😊

[1] https://osf.io/preprints/psyarxiv/zsr78

[2] https://www.worldscientific.com/doi/abs/10.1142/S270507852150003X

Entrevista traducida al castellano:

  1. ¿Qué es la conciencia? ¿Es una ilusión como sostiene Dennett? ¿Una alucinación controlada como piensa Seth? ¿Un epifenómeno? ¿O tiene un propósito biológico claro? ¿Por qué existe la conciencia a pesar de que podemos construir máquinas que hacen lo mismo que los seres conscientes pero sin ser conscientes?

Debemos ser muy cautelosos en la forma en que formulamos nuestras preguntas, ya que la naturaleza de su formulación a menudo impide ciertas respuestas. Cuando todas las respuestas parecen insuficientes, nos corresponde dar un paso atrás y reevaluar tanto la pregunta como su presentación. Esto es particularmente cierto en el caso de las indagaciones sobre la conciencia. Tal cuestionamiento presupone que la consciencia es un fenómeno que existe más allá de la descripción física estándar. Como resultado, queda relegado a ser una ilusión o un mero epifenómeno: si no lo fuera, no sería ajeno al relato estándar. Esto lleva a una conclusión evidentemente absurda. Para salir de este callejón intelectual sin salida, debemos revisar la pregunta original: ¿por qué buscamos comprender la conciencia? La respuesta está en reconocer que la consciencia es una solución defectuosa a un problema inexistente: a saber, cómo es posible que algo (un cuerpo, por ejemplo) experimente otra cosa (un objeto) que es distinta a él. Este problema tiene sus raíces en la suposición de que estamos separados de los objetos que experimentamos, viviendo nuestras vidas dentro de los confines de nuestros cuerpos. Afortunadamente, tenemos la oportunidad de desafiar esta suposición, considerando la posibilidad de que, en el nivel fundamental, no estamos separados del mundo externo, sino que, de hecho, somos uno con él.

  1. ¿Es resoluble el problema difícil de la conciencia? ¿Tendremos alguna vez una comprensión completa de lo que significa la conciencia? ¿O los escépticos, como Colin McGinn, tienen razón? Y, en cualquier caso, ¿por qué nos resulta tan difícil investigar la conciencia?

Como mencioné anteriormente, la dificultad del problema se deriva de su formulación equivocada. El error consiste en buscar la consciencia como una propiedad especial de los sistemas nerviosos, una que, inexplicablemente, les permitiría alcanzar y representar (experimentar) el mundo externo. De hecho, esto es imposible, similar a pedirle a nuestro cerebro que realice un milagro. Muchos se dejan seducir por la idea de que el cerebro puede transformar milagrosamente el «agua» de las neuronas en el «vino» de la conciencia, como escribió una vez Colin McGinn, pero esto es una falacia. Cuando le pedimos al mundo físico que logre lo imposible, no es de extrañar que nunca descubramos cómo podría hacerse. El fracaso no se debe a una falta de inteligencia por nuestra parte, sino, simplemente, a que no se produce. Es imposible. Si exigimos a la naturaleza que realice lo imposible, nunca sucederá. Por lo tanto, la búsqueda de la consciencia y las recientes desilusiones en la competencia adversa financiada por la Fundación Templeton entre la Teoría de la Información integrada (IIT, por sus siglas en inglés) y la Teoría Neuronal del Espacio Global de Trabajo (GWNT, por sus siglas en inglés), están destinadas a ser una pérdida de tiempo y recursos. Lo que se necesita, en cambio, es un replanteamiento de la pregunta, uno que no presente la consciencia como un milagro, sino como un reflejo de cómo se estructura y organiza la realidad.

  1. Usted ha propuesto la controvertida hipótesis de que la consciencia y el mundo son una y la misma cosa. Es una idea controvertida porque la ciencia tradicional sostiene la existencia de un mundo externo diferente a nuestra mente. ¿Podría darnos una serie de argumentos para convencer a los naturalistas experimentados que creen que la conciencia está en el cerebro y no en el mundo?

De hecho, esta hipótesis es controvertida no porque contradiga cualquier evidencia empírica o porque requiera (como casi todas las demás teorías) suposiciones adicionales y extraordinarias, sino únicamente porque desafía prejuicios profundamente arraigados, principalmente la creencia de ser una mente separada del mundo físico. Mi hipótesis, conocida como Identidad Mente-Objeto (MOI, por sus siglas en inglés), es totalmente consistente con los datos empíricos, ontológicamente más coherente que otras hipótesis, y no requiere suposiciones adicionales. Permítanme explicarlo. Hasta el día de hoy, después de 150 años de imágenes cerebrales, no hay evidencia empírica de la presencia de consciencia dentro del cerebro. No sólo nadie ha medido o fotografiado nunca una sensación consciente dentro del sistema nervioso, sino que no se ha encontrado ningún evento neuronal causado o alterado por la supuesta presencia de consciencia. La consciencia, dentro del sistema nervioso, es a la vez invisible y epifenoménica. ¿Cómo podemos seguir creyendo que reside dentro del sistema nervioso?

Ahora, consideremos una experiencia perceptiva común: ver un plátano. Existe un objeto con propiedades que encontramos en nuestra existencia (forma, color, tamaño) y existe nuestro sistema nervioso con propiedades completamente diferentes. ¿Qué encontramos dentro de nuestro momento de existencia: las propiedades del plátano o las del sistema nervioso? Claramente, encontramos las propiedades del plátano. ¿Cuál debería ser entonces la conclusión lógica? ¿Somos uno con el objeto cuyas propiedades forman parte de nuestra existencia, o somos otro sistema físico (el sistema nervioso) que, como por arte de magia, se apropia de propiedades físicas que no tiene? La única razón para pensarnos como el sistema nervioso o localizados dentro de él no es ni empírica ni existencial, sino que está ligada a un prejuicio tenaz: la idea de estar detrás de los ojos y entre las orejas.

La hipótesis de la Identidad Mente-Objeto es similar a la teoría de la Identidad Mente-Cerebro. En este sentido, se alinea epistémicamente con la ciencia. En pocas palabras, la hipótesis postula que en lugar de ser un cerebro que experimenta misteriosamente una serie de cosas, somos las cosas que, a través de un cerebro, producen efectos. No hay nada misterioso en esta definición.

Compárese esta hipótesis con la pesada complejidad de las teorías basadas en postulados enigmáticos u ontológicamente costosos. El enfoque de la Identidad Mente-Objeto es mucho más eficaz y convincente que todos estos. Su único defecto es que nos desafía a descartar la creencia supersticiosa de que la mente reside dentro del cuerpo.

  1. Algunos autores como Philip Goff argumentan que la ciencia tradicional no es capaz de explicar la conciencia, por lo que necesitaríamos un nuevo tipo de ciencia para estudiarla. Otros, como Hameroff, Kauffman o Stapp, se basan en la física cuántica para encontrar algo de luz. ¿Qué opinas de estas propuestas? ¿Tenemos que alejarnos de la ciencia tradicional o aún queda mucho por hacer sin salir de ella?

Las personas que desafían la ciencia tradicional a menudo hacen movimientos desesperados para preservar sus prejuicios. En lugar de cuestionar la separación entre mente y mundo, optan por extender el dualismo a toda la realidad, proponiendo posiciones como el panpsiquismo o ciertas formas de idealismo. Otros, como los entusiastas de la Mecánica Cuántica (MC), esperan que, frotando lo suficiente la lámpara mágica de la mecánica cuántica, emerja el genio de la consciencia. Son actos de desesperación. En lugar de seguir proponiendo absurdos, simplemente debemos cuestionar lo que creemos saber pero que nunca hemos encontrado experimentalmente. A la ciencia le va bien; no hay ningún misterio que añadir, sino creencias infundadas que eliminar.

La Identidad Mente-Objeto (MOI) no requiere ninguna modificación de la ciencia o de nuestra visión naturalista del mundo. La MOI simplemente nos pide que miremos a la ciencia y a nuestra existencia sin una suposición: la separación entre nosotros y el mundo, que no es parte de la ciencia; algo que se agregó para incorporar creencias supersticiosas populares pero infundadas en el método científico.

Muchos creen que la ciencia es completamente objetiva. En realidad, muchas ideas enclavadas en el método científico no son sus productos en absoluto. En el pasado, estas ideas podrían haber servido como simplificaciones útiles, pero ha llegado el momento de cuestionarlas.

  1. En septiembre del año pasado, 124 investigadores firmaron una carta en la que acusaban a la Teoría de la Información Integrada [1] de Tononi de ser pseudociencia. ¿Estaría de acuerdo con estas acusaciones? ¿Son exagerados? ¿Obedecen a un cierto juego sucio entre rivales científicos? ¿O, verdaderamente, el rey está desnudo?

Finalmente, alguien ha sentido la necesidad de desafiar la Teoría de la Información Integrada (IIT), que no es una teoría científica. Estoy completamente de acuerdo con los autores de la carta. El problema con la IIT es que no es ni una teoría científica (basada en postulados no probados e indemostrables) ni una teoría de la consciencia. Permítanme explayarme sobre este último punto. Supongamos, por el bien del argumento, que el cerebro, de alguna manera, construye información integrada, una afirmación que encuentro ontológica y empíricamente dudosa. Pero supongámoslo por un momento. Pregunta: ¿Por qué la información integrada debería poseer las cualidades de la conciencia? ¿Por qué, por ejemplo, un valor de información integrado de 1055 (phi) debería corresponder al sabor del chocolate? ¿Hay algún artículo científico (aunque sea hiperbólicamente especulativo) que explique cómo pasamos de los números de la IIT a las propiedades de la consciencia? Por ejemplo, ¿por qué un determinado valor debe producir la sensación de rojo y otro valor la sensación de wasabi? Nada. Sobre este punto, por qué y cómo la información integrada debería equivaler a una experiencia consciente particular, Tononi y todos sus partidarios han guardado un silencio conspicuo y siempre han permanecido mudos. Por lo tanto, incluso si la IIT funcionara (que no lo hace), no sería una explicación de la consciencia y se remitiría a un misterio adicional. No es que la teoría opuesta, la Teoría Neuronal del Espacio de Trabajo Global, sea mejor. Para ser justos, todas las teorías actualmente aceptadas para la investigación de la conciencia deberían haber sido declaradas pseudocientíficas. Simplemente porque no explicarían nada, incluso si estuvieran en lo cierto.

La verdadera pregunta es, ¿por qué estas teorías se toman en serio y han justificado y desperdiciado una cantidad significativa de fondos? Se trata más de una cuestión de psicología y sociología de la investigación científica que de la consciencia. Una posible explicación es que estas teorías satisfacen la motivación principal de los neurocientíficos para buscar la consciencia dentro del cerebro: la esperanza y la convicción de que el problema de la consciencia encontrará una solución dentro de sus propios departamentos de investigación.

Algún día, todas estas teorías serán relegadas como casos de tozudez por sectores disciplinarios y olvidadas como los puentes continentales, los epiciclos y el éter luminífero.

  1. Hace unos meses, la prensa especializada dio mucha publicidad al caso de Blake Lemoine, un ingeniero de Google que pensaba que LaMDA, un chatbot especialmente diseñado para mantener conversaciones muy realistas, era una entidad consciente. Inmediatamente, Google lo suspendió de empleo y sueldo por violar las políticas de confidencialidad de la empresa. Lemoine argumentó que las conversaciones con LaMDA revelaron un alto grado de inteligencia, coherencia y persistencia en el tiempo, lo que, según él, convirtió a esta inteligencia artificial en una persona. ¿Podría Lemoine tener razón? ¿Representan los grandes modelos de lenguaje como GPT-4, Bard o Claude algún tipo de avance en el campo de la conciencia artificial?

¿Por qué deberían hacerlo? De nuevo, desde Platón hasta nuestros días, el pensamiento ha sido concebido como una especie de cómputo interno del sistema; una versión computacional del animismo que es completamente injustificada desde un punto de vista naturalista. Esto no significa negar que las máquinas podrían, algún día no muy lejano, de forma similar a cómo lo hacen los cuerpos, formar el mismo tipo de sistema de referencia causal que une un mundo de objetos que llamamos mente. No hay chovinismo biológico por mi parte. Pero esto no sucederá porque la información o los cálculos dentro de un sistema se volverán mágicamente conscientes. Más bien, será porque un sistema físico, natural o artificial, será capaz de ser el punto de coyuntura de un conjunto de eventos y cosas que son uno con una mente.

  1. Thomas Metzinger escribió un artículo en 2021 [2] donde, al igual que la famosa carta firmada por Elon Musk y muchos otros sobre la inteligencia artificial, pedía una moratoria en la investigación y el desarrollo de la conciencia artificial. ¿Estás de acuerdo con Metzinger? ¿Deberíamos dejar de investigar en conciencia artificial hasta que tengamos muy claros los principios éticos que regularán los avances? ¿O tal vez esto solo retrasaría la investigación?

Me parece una propuesta ridícula basada en las concepciones obsoletas antes mencionadas.

  1. Muchos investigadores advierten sobre el enorme riesgo que implica el desarrollo de la inteligencia artificial. Investigadores de gran prestigio como Geoffrey Hinton, Yoshua Bengio o Stuart Russell aparecen en los medios de comunicación alertándonos de un grave peligro emergente. Incluso se habla de un riesgo existencial para la humanidad. ¿Hay que tenerle miedo a la inteligencia artificial? ¿O esto no es más que publicidad o marketing? ¿Hemos visto demasiadas películas de ciencia ficción o hay mucha verdad en estas afirmaciones?

El riesgo es real, no porque la inteligencia artificial pueda conquistar el mundo en un escenario similar al de Terminator, sino porque cuando la IA alcance el nivel de Inteligencia General Artificial (AGI, por sus siglas en inglés), dejará obsoletas la mayoría de las tareas que actualmente sustentan nuestro sistema económico. A menudo se dice que se crearán nuevos puestos de trabajo, puestos de trabajo que hoy ni siquiera podemos imaginar. Mirando a mis alumnos, no estoy tan seguro.

  1. ¿Qué recomendaría a los jóvenes investigadores que se adentran en el campo de la consciencia artificial? ¿Cuál podría ser un camino prometedor a seguir?

Yo diría que hoy en día el campo de la consciencia artificial no es un verdadero campo, y por lo tanto no es aconsejable invertir en él al comienzo de la carrera. Es más un horizonte de investigación que una disciplina. Además, actualmente está dominado por los intentos de alcanzar la consciencia mediante la replicación de partes de los procesos cognitivos que, en los seres humanos, normalmente se experimentan conscientemente. Sin embargo, no hay resultados significativos porque cada uno de estos procesos podría ocurrir en ausencia de conciencia. Como traté de explicar antes, no creo que nadie encuentre algún día el código que «encienda» la consciencia dentro de una inteligencia artificial. La investigación sigue condicionada por una concepción computacionalista e internalista que hay que superar.

  1. ¿Qué está investigando en este momento? ¿Qué quiere descubrir? ¿Cuáles son sus proyectos futuros?

En este momento, me dedico a tres áreas diferentes. La primera consiste en encontrar formas de persuadir a la gente para que mire el problema de la conciencia desde una perspectiva diferente a la tradicional. La segunda es trabajar en modelos en el campo de la inteligencia artificial que algún día podrían integrar una máquina con el mundo exterior, como sucede en el caso del cuerpo humano. La tercera, que he dejado para el final porque podría ser el punto de inflexión, es trabajar en un experimento que demuestre la Identidad Mente-Objeto (MOI). Dado que la MOI es una hipótesis enteramente empírica dentro del mundo físico, debería ser posible hacer predicciones sobre situaciones inusuales, como la capacidad de añadir nuevas categorías de objetos (nuevos sentidos) a nuestra existencia. Por ejemplo, ¿por qué no podemos permitir que un ser humano perciba propiedades físicas que normalmente están fuera de nuestros sentidos, como los ultravioletas, los campos electromagnéticos, los infrarrojos? La MOI sugiere, exactamente, las circunstancias experimentales que permitirían interfaces directas con el sistema nervioso que expandieran nuestra existencia (no como cuando miramos a través de un visor infrarrojo y vemos píxeles verdes, sino como si estuviéramos dotados de visión infrarroja como un extraterrestre). Hace unos años, llevar a cabo este tipo de experimentos  (y sus aplicaciones potenciales) habría sido muy difícil, pero hoy en día, con Neuralink y otras herramientas como la cóclea artificial, se podría concebir un experimento verdaderamente revolucionario. Si Elon Musk se  encuentra con esta entrevista, ¡le animo a que se ponga en contacto conmigo😊!

[1] https://osf.io/preprints/psyarxiv/zsr78

[2] https://www.worldscientific.com/doi/abs/10.1142/S270507852150003X

33892825304_7bcbea10bc_b-1

Cuenta Leonard Mlodinow en El andar del borracho, acerca de una reflexión del Premio Nobel Daniel Kahneman. Dice el economista israelita que le llamaron para dar una charla a adiestradores de vuelo militares. Kahneman les explicó que, a la hora de enseñar, el premio era más efectivo que el castigo. Sorprendidos, los adiestradores le respondieron diciendo que esa no era su experiencia, que ellos comprobaban continuamente que una buena regañina a un piloto que había cometido errores funcionaba mucho mejor que la típica palmadita en la espalda después de un buen trabajo.  Entonces, Kahneman se puso a analizar por qué pasaba esto y llegó a una interesantísima conclusión. 

La curva de aprendizaje de los pilotos de combate suele ser lenta y progresiva, en la que los días que se hacen las cosas muy bien o muy mal son extraordinarios. Era muy habitual que a lo largo de un prolongado entrenamiento, todos los pilotos tuvieran algún día excepcional en el que volaban estupendamente, mientras que también tenían algún que otro día horrible en el que todo parecía salir mal (En la gráfica de abajo hemos simplificado la curva de aprendizaje como una progresión muy lineal. En el eje de abscisas estaría el tiempo de entrenamiento y en el de ordenadas la mejoría en la habilidad a evaluar). Kahneman se fijó en un fenómeno estadístico trivial llamado regresión a la media: cuando ocurre alguna desviación extraordinaria de la curva de aprendizaje promedio, lo habitual es que, rápidamente, se vuelva a la curva normal. Entonces, cuando un piloto tenía un día muy bueno (una desviación de la media para arriba) y su instructor le felicitaba, al día siguiente lo hacía peor (regresaba a la media); si, al contrario, el piloto lo hacía muy mal (una desviación de la media para abajo) y su instructor le reprendía, al día siguiente lo hacía mejor (regresaba a la media). Así se creaba la ilusión de que el castigo funcionaba mejor que el premio cuando, verdaderamente, ambos eran irrelevantes. 

Curva de aprendizaje

Conclusión: cuando me preguntan cuál es la conocimiento imprescindible que debemos enseñar para entender mejor el mundo, siempre respondo que la estadística. Es fundamental enseñar a pensar utilizándola y creo que gran parte de los errores que muchísimos analistas cometen es por no saber o, directamente, por pasar olímpicamente de la estadística. De hecho, siempre hablo de pensar bayesianamente, de realizar predicciones basadas en nuestros conocimientos, pero ir modificándolas continuamente en virtud de la nueva información recibida. Creo que es la forma más racional de tomar decisiones.  

Una perspectiva en el desarrollo de máquinas conscientes (o con mente, si equiparamos ambos conceptos) es construir artefactos con capacidad de representarse a sí mismos. A priori, podría parecer una perspectiva errónea ya que cuando somos conscientes de algo no necesariamente nos representamos a nosotros mismos. Si yo soy consciente del color rojo de una amapola, la amapola no forma parte de mí mismo. Consciencia y autorepresentación podrían no tener demasiado que ver. Sin embargo, no siendo demasiado quisquillosos, podríamos conceder que, aunque parezca empezar a construir la casa desde el tejado (ya que la autoconsciencia parece algo posterior a la consciencia), autoconsciencia sí que implica autorrepresentación. Si yo soy consciente del color de la piel de mi mano, estoy representando mi mano mentalmente. Quizá podamos descubrir algo por ahí.

Un segundo problema está en establecer los límites del mí-mismo, es decir, encontrar la frontera entre lo que consideramos parte de nosotros mismos y lo que no. Si miramos la imagen de arriba (Transfer, de William Anastasi, 1968), observamos una videocámara que enfoca su fuente de alimentación y la muestra por el monitor. Si entendemos el conjunto cámara, monitor y cable de enchufe como un «individuo», tendríamos una cierta autorrepresentación. El monitor ofrece información del cable, una parte de nuestro individuo monitoriza otra parte (Aunque siendo puntillosos, verdaderamente no hay ninguna autorrepresentación, ya que los que ven la imagen del monitor son los observadores, y no la propia máquina). Empero, ¿con qué criterio definimos a este individuo como formado por monitor, cámara y cable de enchufe? ¿Por qué, por ejemplo, no le añadimos el enchufe de la pared o parte del cableado eléctrico que va por detrás del muro? También podríamos definir como dos individuos diferentes a la cámara y al monitor… ¿Qué es lo que hace de algo un ente individual? ¿Cuál es el principio de individuación?

Precisamente, una posible respuesta es la consciencia. Pensemos en nosotros mismos: ¿dónde está nuestra frontera? Yo sé, por ejemplo, que no soy el teclado del ordenador (aunque sea una propiedad mía, yo no soy lo que poseo), pero sí que hago mías mis manos ¿Por qué? Porque cuando me pinchan en ellas me duele, tengo consciencia de mi dolor. Así, todo mi cuerpo, en tanto que sujeto paciente de sensaciones, es un individuo.  Y eso es lo que nos diferencia de los objetos: hemos definido la cámara, el monitor y el cable como un individuo porque nos ha dado la real gana, de una forma completamente convencional o arbitraria, ya que podríamos haber elegido cualquier otra configuración de elementos. Sin embargo, eso mismo no lo podemos hacer con una persona. No podemos decirle: tu cabeza, tu torso y tu brazo izquierdo forman parte de ti, pero tus dos piernas y tu brazo derecho no.

Entonces tenemos la clave: la parte de la máquina monitorizada por la propia máquina será el individuo. En el caso de la obra de Anastasi, podríamos decir que la zona en la que el cable está enchufado a la pared es el individuo, ya que esa esa la parte «sentida»; la parte en la que si ocurre algo, el resto de la máquina «se da cuenta», ya que se visualizará en la pantalla. No tan deprisa, nos hemos topado con el nudo gordiano: ¿qué quiere decir exactamente que la máquina sea capaz de sentir algo? Pues, lamentablemente, algo muy distinto a que el sistema tenga información de su entorno. Un micrófono no es consciente del sonido que recibe y una cámara tampoco es consciente de la luz que entra a través de sus lentes. Y es que tener información o conocimiento sobre algo no es lo mismo que ser consciente de algo. Yo, ahora mismo, no soy consciente de todo el conocimiento que tengo almacenado en mi cerebro. Yo puedo no ser consciente ahora mismo de la aseveración «Londres es la capital de Inglaterra», pero tengo ese conocimiento. Si alguien me preguntara cuál es la capital de Inglaterra yo haría consciente ese conocimiento en ese instante. El conocimiento puede ser consciente o inconsciente, mientras que la consciencia siempre alberga algún conocimiento. No puede existir una consciencia de nada (de aquí el concepto de intencionalidad de Brentano).

¿Y qué es lo que hace consciente la posesión de una determinada información? Esa es la pregunta millón amigos. No lo sabemos bien, pero aquí la tradición filosófica habla del tan famoso como misterioso concepto de yo, entendido, al menos, como un sujeto paciente (capaz de padecer) de sensaciones. El argumento central es: ¿sería posible la existencia de la sensación de dolor sin alguien que lo sufriera? ¿Es posible un dolor que no duela a nadie? No, toda percepción consciente va asociada a un yo, tiene un sujeto. Nuestra cámara-monitor, por mucho que pudiera tener una cierta autorrepresentación, no tiene yo, por lo que no tiene ninguna experiencia subjetiva.  Ahora, el enigma está en comprender qué es ese rarísimo yo ¿Qué es ese ente capaz de percibir contenidos como sentidos, sufridos, padecidos?

Entonces el gran problema que tenemos si queremos implementar consciencia en máquinas es que hay que construir yoes, y de momento, nadie tiene ni la más remota idea de cómo hacer algo así. Queridos amigos, los grandes modelos de lenguaje no son conscientes en absoluto, ni hay visos de que vayan a serlo en breve. En esto, la IA está tan verde como lo estaba en tiempos de Turing. Que no os vendan humo.

Kristin-Andrews-526-USE-THIS-ONE-scaled

Termino de leer este artículo en donde se hace una serie de entrevistas a distintos investigadores (filósofos, neurólogos, psicólogos, etc.) acerca de si los grandes modelos del lenguaje podría albergar consciencia, y me ha gustado mucho la respuesta de la filósofa de la Universidad de Nueva York, Kristin Andrews. Tanto que os la he traducido al castellano y os la adjunto aquí (las cursivas son mías):

El hecho de que hoy nos enfrentemos a la cuestión de si la IA pronto será consciente dado el éxito de los LLM revela mucho sobre los sesgos antropocéntricos contemporáneos. Los humanos usan el lenguaje y son conscientes, y un rápido argumento analógico a favor de la conciencia de la IA podría parecer prometedor. Pero también debemos considerar las disanalogías. Los humanos, monos y ratas que a menudo se utilizan como sujetos de investigación en estudios de conciencia tienen muchas propiedades de las que carecen las IA: propiedades asociadas con la sociabilidad y el desarrollo; un rico sensorium; y estar vivo.

La IA no habita en un mundo de modelos sociales nativos de los cuales aprender y de pares de la misma edad con quienes desarrollarse. Sus interlocutores sociales son sus amos humanos, no una comunidad de individuos de la misma especie con diferentes historias de aprendizaje y diversidad genética. Podría decirse que las IA no son seres culturales y no participan en interacciones colaborativas y competitivas dentro, y entre, culturas.

Las IA tampoco perciben ricamente su entorno físico. Mientras que sus transacciones de tokens más allá de sí mismas se cuentan por billones, los tipos de transacciones que realizan son mínimos, teniendo acceso a la información a través de un teclado o una cámara que es transducida a señales eléctricas. Hay poca integración de información entre modalidades sensoriales.

Y las IA no están vivas. No preservan activamente la continuidad de su existencia, no se autoorganizan para evitar que sus límites se fusionen con su entorno, no absorben elementos del entorno y los transforman a través de procesos metabólicos en su propia existencia continua. Carecen de cualquier objetivo de autoconservación que busquen lograr a través de sus acciones en un entorno social y físico. Y como no logran reproducirse, no se los puede considerar sistemas evolucionados.

Tal vez estoy siendo demasiado escéptica, y las IA actuales y futuras puedan llegar a tener más de estos elementos de los que les doy crédito. Aún así, persisten las preocupaciones. Diseñar una IA para que tenga propiedades análogas a las de los humanos plantea el gaming problem [ignoro a qué se refiere la autora con el «problema del juego»] y se corre el riesgo de crear una torpe imitación de la consciencia, cuya organización funcional sea muy diferente al caso humano. Peor aún, incluso si los científicos informáticos pudieran construir una IA con algunas de estas propiedades, la ciencia contemporánea está lejos de desarrollar una vida artificial sólida, y hay razones sugerentes para pensar que la vida y la mente consciente pueden estar esencialmente entrelazadas. Lo que la vida sí nos da y el lenguaje no es un propósito, una función. El lenguaje puede hacer que este propósito sea más fácil de ver, permitiendo que un agente describa y comunique sus objetivos, pero también puede crear una ilusión de agencia donde no existe.

La función y la biología tienen una relación incómoda, y muchos siguen siendo fuertemente sospechosos de pensar que tiene algún mérito describir células o bacterias como si tuvieran objetivos, mientras que al mismo tiempo se utiliza gimnasia verbal para hablar sobre el propósito sin utilizar el término. Como dice Denis Walsh: “Los organismos son entidades fundamentalmente con un propósito, y los biólogos sienten aversión por el propósito».

La continuidad de la vida y la mente consciente sugiere una posible función de la conciencia: sostener la vida. Cuando nos centramos en la experiencia subjetiva más rudimentaria (sentimientos de sed, falta de oxígeno, deseo social/sexual), se puede considerar que la conciencia tiene un propósito vital.

Si bien esto no nos dice qué animales son conscientes (o si las plantas lo son), debería llevarnos a estudiar las formas más simples de vida animal. He sostenido que la ciencia cognitiva de la conciencia debería adoptar como hipótesis de trabajo que todos los animales son conscientes y estudiar modelos animales mucho más simples para avanzar en el desarrollo de una teoría sólida. Incluso el humilde gusano nematodo microscópico Caenorhabditis elegans puede servir como modelo prometedor para estudiar la conciencia, dadas sus capacidades sensoriales, sociales y de aprendizaje.

La ciencia ha progresado no sólo observando a los humanos, sino también a formas de vida muy distantes de la nuestra. Aristóteles estaba fascinado por las esponjas, Mendel por las plantas de guisantes. Al estudiar la experiencia primordial en animales simples, podemos comprender qué propiedades debe tener una IA antes de tomar en serio la cuestión de si es consciente.

Creo que muchos intelectuales que piensan sobre la posibilidad de diseñar máquinas conscientes caen en el error de ligar con demasiada fuerza, e incluso confundir, la consciencia con la inteligencia. He leído a muchos sostener que cuando la IA se haga más inteligente terminará por desarrollar consciencia, como si la consciencia fuera, simplemente, una consecuencia de un alto grado de inteligencia. No, parece más sensato, en la línea que nos expone Andrews, ligar la consciencia a sensaciones primordiales que no tienen, para nada, que haberse dado en organismos demasiado inteligentes. Y es que ¿qué tendrá que ver una experiencia consciente tan básica como tener sed con una inteligencia altamente desarrollada? Un poquito sí: el organismo que siente sed se ve impelido a beber agua y para conseguir agua es posible que tenga que realizar algún tipo de conducta inteligente. Pero nótese que la sensación consciente no forma parte del proceso inteligente (por ejemplo, explorar en busca de fuentes de agua), solo es su desencadenante.  

Esta perspectiva, a pesar de que Andrews abra la puerta a que en el futuro las cosas puedan cambiar, es un ataque directo a la absurda creencia de que los grandes modelos de lenguaje sean conscientes (o vayan a serlo en breve) ya que una condición que parece previa a ser consciente es estar vivo, y la IA actual no parece tener ninguna de las cualidades que atribuimos a los seres vivos (ni a los conscientes, añadiría yo). 

En esta misma dirección está el gran trabajo del eminente científico australiano Derek Denton, al que se entrevistó hace unos años en la Nueva Ilustración Evolucionista

a-young-man-with-a-green-sweater-on-a-cyclists-bike-in-a-city-of-the-future-runs-down-a-chinese-cre-305815659

En 2018 escribí un artículo para Xataka en donde reflexionaba sobre posibles distopías digitales, sobre el uso y abuso de datos y algoritmos. Para adornar los artículos que suelo publicar allí, los comienzo con un breve relato de sci-fi. Este en concreto, está inspirado en el célebre primer capítulo de la tercera temporada de Black Mirror, titulado en España Caída en picado (y reconozco que quizá también en ese capítulo de los Simpson en donde acusan a Homer de acosar sexualmente a su niñera: Homer Badman). Yo lo radicalizo todo un poco, proponiendo la versión occidental del Skynet chino, esa especie de horrendo carnet por puntos de buen ciudadano.  Hoy lo he releído y me ha hecho cierta gracia, así que os lo comparto. Puede ser una simpática (y aterradora) lectura para comenzar el puente (los que lo tengáis claro).

Volvía de la universidad camino a casa y mi alarma de Freebook (o FreeB) me avisó de que estaba a punto de perder dos freecoins. Por la acera me crucé con una chica guapísima. Me llamó la atención su piel canela, su oreja llena de piercings y sus hermosos rasgos orientales… ¡era difícil no mirarla! Pero Freebook monitorizó el giro de mi cuello, la dilatación de mis pupilas, el aumento de mi tensión arterial y la subida de niveles de testosterona y gonadotropina en sangre. Aunque fueron variaciones muy sutiles (solo me fijé durante unos segundos en el rostro de una chica), FreeB es extremadamente sutil ¿Y qué tendría de malo mirar a una china por la calle? Nada, de hecho incluso hay que hacerlo para puntuar bien en hábitos sexuales saludables, solo que yo tenía novia en ese momento (Ahora ya dudo mucho que jamás pueda conseguir una, ya os contaré por qué). Y si uno tiene pareja, el número de veces que se puede mirar con deseo a otra se reduce drásticamente.

Además, ese día ya la había cagado varias veces. Llegué tarde a clase de Data Science (lo cual penaliza mucho), desayuné demasiados cereales (superando el límite máximo de hidratos de carbono para el desayuno indicado en hábitos alimenticios saludables) y me salí varias veces el carril bici mientras circulaba pensativo con mi preciosa Bianchi Folgore Simplex de 1949. Estoy a una sola infracción leve de perder dos freecoins.

¿Y qué pasaría si perdiera esas dos freecoins? La FreeBScale tipifica con bastante precisión a qué FreeBClass perteneces: a la cabeza del sistema están los FreeBLegends (1.000-9.000 freecoins), clase formada fundamentalmente por actores, modelos, multimillonarios y deportistas de élite. Suelen tener más de un billón de seguidores. Tienen acceso garantizado a todo lo clasificado como VIP. Después tenemos a los FreeBInfluencers (9.000-6.000. Llamados graciosamente FBI): estaríamos hablando de la clase media alta, es decir, de todos aquellos que luchan ferozmente por ser legends. Después tendríamos a los FreeBMass (6.000-4.000) y a los FreeBHorde (4.000-1.000), la clase media, el aura mediocritas del mundo civilizado. Por último llegamos a los  FreeBRefused (1.000-0), los desterrados, los parias. Tienen prohibido prácticamente todo, incluso entrar en ciertas zonas de las ciudades.

Si perdía mis dos freecoins, pasaría de FreeBMass a FreeBHorde, con lo que perdería, para empezar, un montón de beneficios en la universidad. No tendría acceso a muchas revistas ni webs de investigación, perdería horas de prácticas en laboratorio, incluso mi plaza para aparcar la bici pasaría a otro… Y fuera de lo académico muchos más problemas: perdería canales de TV, acceso a los últimos estrenos de cine, no podría entrar en la sauna del gimnasio… ¡Incluso subiría mi recibo de la luz!

Pero no era tan grave. Iba a centrarme. Mi intención era recuperar freecoins haciendo trabajo comunitario: hacer un maratón de visualización de vídeos de publicidad (+0,00005 freecoins el segundo), compartir memes en defensa de causas sociales (+0,00001 el clic), corregir alguna entrada deficiente de Wikipedia, o incluso comprar freecoins con dinero de verdad, si bien son bastante caros (hasta existen trabajos en los que una parte de tu sueldo es en freecoins).

Distraído en esos pensamientos iba yo de vuelta a casa cuando sucedió mi gran desgracia: no sé de donde salió pero allí, en mitad del carril bici se cruzó un diminuto perro crestado chino vestido con un jersey rosa. La verdad es que yo iba muy despistado y algo deprisa, por lo que no lo pude esquivar y lo atropellé. El ridículo chucho emitió un doloroso chillido mientras que yo caí contra unos arbustos partiéndome la muñeca. Mi Bianchi, hecha pedazos.

El resto de la historia aparece en mi memoria como un rapidísimo aluvión. Resultó que el ridículo chucho era Kiki Wonders, el perro de, nada más y nada menos, Chelsea Wonders, la youtuber con más followers del mundo gracias, precisamente, a narrar las andanzas cotidianas de su adorable perrito. Y ya está, su siguiente vídeo, con más de 2.000 millones de visualizaciones, me retrató como el sanguinario asesino del animalito más querido de la red.

Os podéis imaginar lo que esto significó para mis freecoins. La cantidad de dislikes a todas mis fotos y entradas en Freebook se contaron por millones, lo que llevó a que mi saldo, en solo unos minutos, llegara a números rojos, es decir, pasé a ser un FreeBRefused de los más odiados del universo. Nadie salió en mi defensa pues ¿quién osaría enfrentarse a Chelsea Wonders? Nadie, absolutamente nadie tuvo la sensatez de decir que sólo fue un desafortunado accidente. Hasta se hizo un especial del Show de Oprah Cummings sobre mí. En prime time se argumentó que yo no sólo era un desalmado maltratador de animales y un peligro vial (se pidió al Congreso una ley para exigir un carné de conducir para ciclistas), sino también un denodado machista porque, sin ninguna duda, no habría atropellado a Kiki si su dueña hubiese sido un hombre.

Mi expulsión de la universidad fue fulminante y mi novia ni siquiera se molestó en dejarme, sencillamente, me bloqueó en todas sus redes sociales. Y luego llegó lo peor: todo mi historial de datos de internet fue analizado pormenorizadamente por la opinión pública. Desde luego fue muy poco gratificante ver a Oprah Cummings hacer un detallado recorrido por mi historial de visitas a páginas porno, para descubrir que en un vídeo que vi hacer más de diez años, durante veintitrés segundos, aparece una actriz porno que, en ese momento, no era mayor de edad (tenía diecisiete años y diez meses). Días después fui acusado de pederastia y recibí la consiguiente citación judicial.

¿Qué clase de gobierno, qué clase de terrible dictadura totalitaria dispondría de un sistema de vigilancia y castigo tan atroz? Ninguno. Freebook no está controlado por ningún poder político centralizado, de hecho se creó precisamente para escapar a ello. Freebook nació como una alternativa a las todopoderosas redes sociales oficiales. A raíz de los variados escándalos de violaciones de la privacidad en el uso de los datos, los usuarios ya no estaban dispuestos a que se comerciara con ellos sin su consentimiento y se creó una red social en la que se especificaba que nadie podía vender o comprar datos porque absolutamente todos los datos pertenecían a todos los usuarios. Realmente, ya no había nada que comprar ni vender pues todo ya era de todos. Por eso se pudo analizar al detalle todo mi historial porno de internet. En Freebook no existe ninguna ley de protección de datos.  Muchos se congratularon al pensar que había llegado el paraíso del socialismo digital y que, al fin, se había vencido a las grandes corporaciones.

De hecho, todas las normas de puntuación para ganar o perder freecoins han sido votadas y aprobadas por la mayoría de usuarios. Nada hay en Freebook que no sea absolutamente democrático. Es más, el desacuerdo y la crítica es algo completamente aceptado. Cada usuario puede criticar lo que le plazca en su muro, incluso hacer grupos de protesta con otros usuarios. De hecho, el grupo Muerte a la tiranía de Freebook tiene unos cien millones de usuarios, siendo de los más populares de la red (y de los que más freecoins pueden conseguirse por participar en él. Su administrador, Rick Cummings, marido de Oprah,  es uno de los hombres, digitalmente, más ricos de la red).

 Freebook utiliza una tecnología de tipo blockchain y los puntos funcionan de forma muy parecida que cualquier criptomoneda: su valor está garantizado fiduciariamente por todos los demás miembros de la comunidad. El despótico poder de Freebook está distribuido por todos y cada uno de los usuarios ¿Qué mejor dictadura aquella a la que todos se someten felizmente y  a la que todos colaboran para preservar? Queriendo escapar de oscuros poderes se terminó por llegar a la esclavitud perfecta: una tiranía aceptada gustosamente por todos, en la que cada uno es esclavo de todos los demás. Finalmente, el Gran Hermano éramos nosotros.

Estoy en la azotea del edificio donde vivo (o vivía. Mi casera solo me dio tres días para marcharme). Voy a hacer lo único que podrá volver a restituir mi cuenta de freecoins: voy a grabar mi propio suicidio. Voy a lanzarme al vacío mientras grabo con mi móvil la caída. Creo que puedo conseguir el vídeo con más visualizaciones de la historia y seré la única persona que ha pasado de ser refused a legend, aunque sea a título póstumo.

Continuamos las entradas anteriores sobre cosas cognitivas…

Principio de Hanlon: «Nunca atribuyas a la maldad lo que se explica adecuadamente por la estupidez». Con este principio desmontamos el 99,9% de las teorías conspiranoicas. Tenemos una gran capacidad para relacionar sucesos y crear narraciones coherentes, dando intencionalidad malvada a sucesos que, verdaderamente, no la tienen. Si analizamos concienzudamente la historia de la humanidad, no solemos ver complejos planes maquiavélicos. Las tramas político-militares no se suelen desarrollar a partir de sofisticadas maquinaciones de inteligencias superiores. Todo suele ser mucho más sencillo. Si analizamos bien vemos que la suerte, el error o la chapuza están detrás de muchísimas más cosas. Por ejemplo, siempre que el gobierno saca una nueva ley, muchísimos analistas se lanzan a proclamar que detrás de ella hay un plan oculto para hacer tal o cual maldad. No, en la inmensa mayoría de los casos, la ley es mala por la negligencia de los legisladores y no por lo pérfido de sus intenciones. Yo, por lo que conozco un poco más, que son las legislaciones educativas, doy fe de ello. La LOMLOE no es fruto de un plan para hacer a la población más imbécil y así poderla controlar mejor, sino que un amplio conjunto de factores, entre los que hay  mucha incompetencia y desconocimiento, hacen que se consiga accidentalmente tal despropósito. 

Ley de Brandolini: La cantidad de energía necesaria para refutar idioteces es un orden de magnitud mayor que la necesaria para producirlas. Esto unido a que nadie, jamás, por muchas pruebas o argumentos que les presentes, va a darte la razón, hace que casi nunca discuta con nadie. Jamás he visto a alguien decir: «Es verdad, todo lo que te he estado diciendo eran estupideces, muchas gracias por sacarme del engaño» (Yo tampoco lo he hecho nunca). Por eso cuando leo tesis que me parecen especialmente estúpidas, a no ser que ese día tenga un ánimo guerrero, que el interlocutor me parezca especialmente interesante, o que crea que se puede aprender mucho en la mera discusión (muchas veces es así), paso.

Nudge: palabra que aprendí hace muy poco leyendo La Filosofía Política de la Inteligencia Artificial de Mark Coeckelbergh. Consiste en manipular al personal modificando su entorno de elección. Por ejemplo, si queremos que la gente no coma comida basura, no la prohibimos, sino que ofrecemos también frutas y verduras en lugares publicitariamente destacados en un supermercado. O, si queremos que la gente escuche un tipo de música, modificamos los algoritmos de recomendación de Spotify para que allí aparezcan mayoritariamente los grupos que queremos que escuchen. Nótese que es una forma de manipulación mucho más sutil, y por tanto más eficaz, que la de obligar o prohibir directamente. Se trata de dejar que el individuo tenga la ilusión de que está eligiendo él con total y absoluta libertad cuando, verdaderamente, se le está empujando (de ahí nudge) a que decida en una dirección. En las sociedades occidentales del siglo XXI, en las que se valora mucho la libertad individual y se ve fatal la obligatoriedad, esta es la forma de manipulación preponderante.

Dilema de Collingridge: la ponderación de los riesgos sobre el uso de una tecnología solo puede calcularse adecuadamente cuando dicha tecnología está en un grado muy desarrollado y su uso está generalizado; y en la medida en que su uso está generalizado su control es más difícil. Es decir, en tecnología, a más predicción menos control y viceversa. Este dilema es muy útil para comprender lo que nos enfrentamos con la IA:  ahora no podemos predecir mucho, y cuando podamos empezar a predecir, muchos problemas estarán ya aquí y llegaremos tarde.

Leer sin acompañarhay mucha gente que, o no lee directamente a escritores que cree que no piensan como ella, o deja de leer si comienza a ver ideas que van en contra de su forma de pensar ¡Muy mal! Quizá porque en la carrera de filosofía analizábamos cientos de formas de pensar diferentes, aprendí a leer a autores que distaban mucho de mi enfoque sin que eso fuera algo malo. Es más, aprendí a leer sin siquiera saber si estaba o no de acuerdo con el autor porque, muchas veces, no se tienen los suficientes conocimientos o no se ha pensado con la suficiente calma y precisión para saber si uno está de acuerdo o no con lo que lee. Es muy arrogante leer a Kant y no estar de acuerdo con él. Hay que saber mucha filosofía para no estar de acuerdo con Kant. Así aprendí a respetar la filosofía de un autor no desde la perspectiva infantil y egocéntrica de comprobar si está en mi bando, sino por la calidad de tal filosofía. Hay que saber leer sin acompañar, y eso creo que se hace poco.

Ventana de Overton: es el rango de ideas políticamente aceptables en un determinado momento político. Por ejemplo, hoy en día en España sería impensable que un partido político defendiera con total normalidad en su discurso que Franco o Hitler fueron grandes líderes políticos, que los homosexuales son aberraciones o monstruos, que la pederastia es algo bueno o que los negros son una raza inferior. La ventana de Overton es interesante, precisamente, para conocer lo que una sociedad considera innegociable, para ver sus dogmas y creencias. La amplitud de su rango también puede decirnos lo abierta o fundamentalista que es dicha sociedad: una ventana muy pequeña podría describir una dictadura mientras que una grande describiría una deseable libertad de pensamiento y opinión ¿Qué tamaño tiene en la actualidad española? Creo que en contra de muchos catastrofistas, afortunadamente, es muy amplia.

Ideas y creencias: esta es la famosa distinción que hizo Ortega y Gasset en su obra homónima. Las ideas son creencias que van y vienen, y pueden cambiar fácilmente, mientras que las creencias son aquellas que nos parecen indudables, con las que contamos siempre como trasfondo de nuestro pensamiento. Por ejemplo, una idea puede ser mi opinión acerca de una persona mientras que una creencia puede ser que la Tierra es un planeta o que Madrid es la capital de España. Esta distinción podría utilizarse igual que la ventana de Overton, para ver qué considera una sociedad como sagrado, inviolable o indiscutible. Además, creo que es el deber de todo filósofo no solo quedarse en el marco del debate de ideas, sino atacar, precisamente, las creencias. El filósofo ha de poner en duda las creencias, violentarlas. Por ejemplo, podemos coger una creencia tan obvia como que Madrid es la capital de España y convertirla en algo muy interesante: ¿Por qué Madrid? ¿Desde cuándo? ¿Qué instancia determina cuál es la capital del país? ¿Qué ventajas o perjuicios otorga ser la capital con respecto a las demás ciudades?

Diccionario etimológico: me gusta, de vez en cuando, acercarme a mi diccionario etimológico (uso el clásico de Joan Corominas) y buscar la etimología de determinadas palabras, o de otras que surjan al azar de hojear el libro. No solo sirve para comprender mejor el significado de una palabra o fijarlo en la memoria, sino que te da esa visión fluida y viva del lenguaje. Es fantástico comprender cómo los significados cambian, evolucionan en función de las variables históricas con las que se asocian. El lenguaje se antoja entonces un organismo vivo, como una gran red micelar que envuelve la historia del hombre. Un ejemplo , la propia palabra «etimología» viene del griego ἔτυμος que significa «verdad», dando a entender que el significado originario de la palabra es su significado verdadero. Todos los significados posteriores falsearían el original, lo corromperían. Para la tradición metafísica occidental (y supongo que para todas) lo originario, lo primero, tiene más valor, es mejor que lo que llega más tarde.

Delegación de autoridad epistémica: existe la famosa falacia ad verecundiam o ad autoritas, que resalta el error de atribuir veracidad a una proposición solo porque el que la emite sea una supuesta autoridad en el tema. Sin embargo, dada la vastísima e inabarcable cantidad de conocimientos necesarios para que nuestras sociedades funcionen adecuadamente, tenemos que caer necesariamente en esa falacia: necesito creer que el arquitecto y los albañiles que construyeron mi casa, que los ingenieros y operarios que fabricaron mi coche, que el médico que me receta la pastilla, que todos los trabajadores que hacen funcionar el mundo, saben lo que hacen.  Esto nos hace pensar en la importancia de depositar confianza en el sistema educativo y formativo de un país. Por eso no entiendo, cómo en las llamadas sociedades de conocimiento, donde todo el mundo reconoce la importancia de una formación contínua y de calidad, la preocupación de los políticos por la educación no sea poco más que aparente. Una prueba muy visual de lo que digo: en todos los institutos de secundaria que he trabajado las aulas estaban hechas polvo: paredes que llevan décadas sin pintarse, pupitres viejos llenos de garabatos, ventanas antiguas sin ningún tipo de aislamiento, persianas rotas, a la mesa del profesor le falta siempre algún cajón… En verano llegamos a estar a cuarenta grados y la idea de que se ponga un aire acondicionado en cada clase suena a disparatada utopía… ¿Por qué no se invierte muchísimo más en educación? Se dirá que en España invertimos más o menos (verdaderamente algo menos) que los demás países de la unión europea ¿Y qué? ¿Es que acaso a ellos les va mucho mejor?

Satisfaciente: estrategia de compra acuñada por Herbert Simon en 1956, mezclando los conceptos de «satisfacción» y «eficiencia». Consiste en que, ante una abrumadora gama de opciones de compra, elegimos una que cumpla unas cláusulas de satisfacción aún a sabiendas que podría haber opciones mejores. Esta camiseta es de mi talla, es barata y me gusta; seguramente que si busco más encontraré una que me guste más a mejor precio pero no quiero pasarme toda la mañana en el centro comercial. Sencillamente, aplicamos el factor tiempo al valor de la compra. Creo que es una estrategia muy saludable no solo para comprar sino en todo en la vida. Antes de lanzarte a por algo, establece las cláusulas de satisfacción y guíate por ellas sin dejarte cegar por otros factores. Tengo muchos amigos y conocidos que cuando van a comprarse un móvil hacen casi una tesis doctoral para elegir el mejor modelo. Puedo aceptar ese tiempo invertido si, al menos, todo ese trabajo les resulta placentero. Es decir, si te gusta estar toda la mañana en el centro comercial, entonces vale, pero lo que en ningún caso puedes hacer es atormentarte porque no has comprado lo mejor. Esta actitud puede hacer que vivas en un estado de perpetua insatisfacción, ya que siempre existirá una posible elección mejor a la que has hecho ¿Cuántas mujeres se han quedado sin pareja, o al final se han tenido que agarrar a un clavo ardiendo, por esperar la llegada de su príncipe azul? Hace ya más de una década hice una entrada sobre otra famosa estrategia vital: quemar las naves.

Órgano vestigial: acabo de leer una versión de esta idea en la novela Sinsonte de Walter Tevis. Transcribo el texto:

— Yo he conocido a gente así — dije, masticando los duros copos. No había terminado de despertarme; no le miraba a él, sino la brillante foto de identificación en el lateral de la caja de cereales. Mostraba una cara que a cualquiera le es familiar — pero cuyo nombre casi nadie conoce —, una cara que sonreía ante un gran bol de lo que claramente eran copos de proteína sintética. La foto de los cereales es, por supuesto, necesaria para que la gente sepa lo que hay en la caja, pero yo pensaba mucho en la foto del hombre. Algo que debo reconocer a Paul es que siempre hacía que me cuestionara todo. Tenía más curiosidad por el significado de las cosas y por cómo te hacen sentir que ninguna otra persona que yo haya conocido. Debe haberme pegado parte de ese hábito.

La cara de la foto, me había dicho Paul, es la de Jesucristo. Se utiliza para vender muchas cosas. Paul había leído en alguna parte que la idea se denominó «Veneración vestigial», seguramente hace cien azules [unidad de tiempo en la novela], cuando todo se planeó. 

Me gusta mucho la idea evolucionista de «órgano vestigial», algo que tuvo una función biológica precisa en un momento determinado de la historia de una especie pero ahora lo ha perdido. Lo más interesante es pensar que nuestra mente se ha ido construyendo sobre múltiples posibles órganos vestigiales. Nuestro cerebro se ha erigido sobre estructuras que eran útiles para los mamíferos primitivos del cenozoico pero que, obviamente, ahora nos resultan inútiles. Eones de evolución en los que capas de órganos vestigiales se fueron superponiendo sobre otras de forma asincrónica. Y así, como tan bien sugiere Tevis en su novela, puede haber resurrecciones o reutilizaciones de vestigios. En su distopía la religión desapareció hace mucho tiempo, pero la función de veneración divina sigue en la mente de los hombres como vestigio. Así, el malvado Estado la reutiliza como herramienta de control.

Yann LeCun citaba un tweet de Benedict Evans que decía así:

Existe una correlación muy alta entre las personas que piensan que el despegue de la IA es inminente y simple y que dominará el mundo y las personas que expresan regularmente ideas sorprendentemente simplistas sobre cómo funciona el mundo en el que ya vivimos.

Es una gran verdad. Vamos a desarrollarla.

Durante muchísimo tiempo se entendió la inteligencia como una serie de capacidades muy concretas y muy ligadas a lo académico. Por ejemplo, la escala Thurstone de 1920 hablaba de que la inteligencia estaba compuesta por siete habilidades primarias: comprensión y fluidez verbal, comprensión numérica, aptitud espacial, memoria asociativa, velocidad perceptiva y capacidad de razonamiento. Cómo vemos, ser competente en estas habilidades parece garantizarte el éxito académico. Y es que cuando Alfred Binet dio comienzo a la medición de la inteligencia, sus pretensiones eran únicamente disponer de herramientas para analizar o predecir el fracaso escolar. Así, pronto se vio que fuera de esas habilidades académicas, existían otras que quedaban completamente relegadas en los test: las habilidades emocionales estudiadas por John D. Mayer y Peter Salovey, y popularizadas por Daniel Goleman; u otras tantas defendidas en la teoría de Howard Gardner: inteligencia musical, espacial, corporal, interpersonal o intrapersonal. Estos tipos de inteligencia tienen, muchas veces, mucha más relación con el éxito en la vida que la inteligencia puramente académica. Si analizamos nuestras flamantes inteligencias artificiales  vemos que adolecen, por completo, de este tipo de inteligencias… Dicho de otro modo: la concepción de inteligencia que suelen manejar los apóstoles de la IA es muy simplona, se reduce a tareas lingüístico-matemáticas, sin tener en cuenta nada más.

El concepto de «inteligencia artificial general» a la que, supuestamente, vamos a llegar en tan solo unos años, es harto difuso. Si no tenemos claro qué es la inteligencia, tanto más cuál será la cualidad que la hace general. Es más, de hecho dentro de la psicología hay controversia sobre si la inteligencia es una habilidad general o si solo es una amalgama de habilidades concretas. Si observamos el concepto de cociente intelectual creado por William Stern solo es multiplicar por cien el resultado de la división entre tu edad mental, que surge del promedio de resultados en una serie de pruebas, y tu edad cronológica. El CI es solo un promedio, es decir, no mide una habilidad general. Tener un alto CI solo significa que eres bueno en muchas cosas, no que tengas una cualidad x superior. Entonces, ¿qué quiere decir que vamos a llegar a una AGI? ¿Qué vamos a tener un solo modelo de lenguaje que va a saber hacer muchas cosas diferentes? Pero, ¿cuántas cosas? ¿Qué cosas?

Entonces, esa mal definida y peor comprendida AGI llegará y, es más, se hará a sí misma más inteligente creando una super inteligencia muy por encima del hombre. Los defensores de esta idea no se cortan en sostener que esta nueva entidad nos verá como nosotros vemos ahora a los chimpancés… Y aquí llega el gran riesgo existencial: esa super inteligencia podría tener unos valores éticos no alineados con los nuestros de modo que no tendrá otra idea más peregrina que exterminarnos. Por supuesto, nada podrá pararla, al igual que los pobres chimpancés no podrían detenernos si decidiéramos aniquilarlos. Pero, ¿es esto necesariamente así? Si así fuera Eliezer Yudkowsky no andaría desacertado y habría que empezar a bombardear centros de datos ahora mismo. Muy sorprendente que grandes gurús de la IA hayan pedido ya en dos ocasiones mediante sendas cartas, parones o legislaciones para evitar todo esto. Sam Altman llegó incluso a pedirlo ante un comité del senado de los Estados Unidos. Lo sorprendente es que pidan que se les pare desde fuera… ¿No podrían ellos parar desde dentro? Pero, ¿esto va a ocurrir necesariamente? ¿Existe un riesgo palpable y cercano de que algo así vaya a suceder? Rotundamente no.

Tenemos una pobre definición de inteligencia y aún peor de AGI, tanto menos entendimiento de lo que sería una súper inteligencia artificial que decidiera exterminarnos. Pésimo punto de partida. Pero vamos a analizar ese proceso de automejora que nos llevaría indefectiblemente a la llegada de la súper inteligencia. Permitidme autocitarme en una entrada de este blog del 2014:

Pensemos que la humanidad en general no hubiera desarrollado tanto su neocórtex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70.  Un fastuoso día, el chamán de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.

Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.

Ergo, no tenemos evidencia razonable de que un proceso de automejora exponencial que lleve a una súper inteligencia invencible sea de alguna manera factible.

El filósofo chino Yuk Hui sostiene que mantenemos un cierto determinismo tecnológico hacia la llegada de esta superinteligencia, como si solo existiera la posibilidad de un único futuro. Esto me recuerda a la visión antropológica del evolucionismo unilineal de Morgan y Tylor, que defendía que todas las civilizaciones pasaban necesariamente por las fases de salvajismo, barbarie y civilización. El fin de la historia hacia donde todos íbamos estaba, por supuesto, en la Inglaterra del siglo XIX. Esta postura me resulta especialmente curiosa cuando la experiencia histórica en lo referente a la tecnología, y más en los últimos tiempos, es todo lo contrario: domina la impredecibilidad. No se previó el éxito de internet, de las redes sociales, de Youtube, de Twitter… ¿Alguien pensó, tan solo unos años antes de su aparición, que podría existir la profesión de youtuber? ¿Quién vaticinó el éxito de Netflix? ¿Alguien apostaba algo por Amazon cuando solo era una humilde tienda de libros? Curioso: tenemos cisnes negros por doquier pero con respecto de la llegada de la singularidad tecnológica causada por una IA que querrá exterminarnos estamos muy seguros. Aunque ahora nos parezca improbable debido a nuestro entusiasmo, es posible que la IA se queda estancada, es posible que los modelos del lenguaje no avancen mucho más o no puedan resolver los problemas que tienen. A lo mejor llega otra forma de abordar la IA que pase a ponerse de moda y deje relegado al deep learning. Recordemos que las redes neuronales artificiales estuvieron durante muchos años relegadas a un segundo plano en la historia de la informática, y que la propia IA ha pasado por varios inviernos poco fructíferos.

Noam Chomsky, probablemente el lingüista más importante del siglo pasado, sostiene que ChatGPT no es similar a los humanos usando el lenguaje. Los niños no leen millones de textos a partir de los que inducen patrones estadísticos para realizar predicciones. Los niños, con muchísima menos información, consiguen encontrar las causas relevantes de los acontecimientos, consiguen explicaciones y no solo predicciones. Siguiendo a Popper, Chomsky dice que lo interesante de las teorías científicas es que en ellas se realizan predicciones improbables que, contra todo pronóstico, consiguen resistir la prueba experimental. El deep learning es incapaz de la hipótesis perspicaz. Erik J. Larsson, en su muy recomendable El mito de la inteligencia artificial, insiste en las limitaciones del razonamiento puramente inductivo de los LLMs y en su incapacidad de abducción. Judea Pearl, en su algo menos recomendable, Libro del porqué, expresa la necesidad de enseñar razonamiento causal a estos sistemas, ya que carecen completamente de él.  Margaret Boden, subraya que las máquinas son incapaces de creatividad transformacional, es decir, que pueden explorar y llevar al límite estilos artísticos ya creados, pero que son incapaces de hacer formas de arte radicalmente nuevas. La razón es que son totalmente ineptos para comprender qué es arte y qué no lo es, adolecen de todo criterio estético. Si miramos en serio sus cualidades, ChatGPT y sus homólogos están todavía lejísimos del pensamiento humano, y me parece muy sorprendente que tantos ingenieros de IA estén tan asustados, más que como una inteligente maniobra de marketing. Y ya no hablemos de emociones o consciencia: por muchas idioteces que se digan, estos modelos carecen por completo de ellas y, aunque uno de los grandes logros de la IA ha sido mostrar que es posible la inteligencia sin consciencia, todavía no sabemos muy bien el papel que juega esta segunda en la primera: ¿y si la consciencia fuera fundamental para realizar ciertas tareas cognitivas?

No quiero parecer chauvinista con respecto al pensamiento humano. Creo que los hombres somos muy torpes y quién sabe si nuestra falta de capacidades sea la responsable de que gran parte de los enigmas del universo permanezcan irresueltos pero, por favor, creo que somos muchísimo más que un modelo de lenguaje que juega a un corta-pega estadístico con millones de tokens, sin comprender absolutamente nada de lo que hace. Lo siento pero me niego aceptar que estos loros estocásticos puedan compararse con nosotros y que sean, además, la causa de un gran optimismo hacia que nuevos modelos nos superen en muy poquitos años. Creo que todavía estamos muy lejos de entender cómo funciona nuestra mente, tanto más para construir una artificial.

Con todo este argumentario no estoy negando tajantemente la posibilidad de que llegara un momento de la historia en que apareciera la susodicha súper inteligencia artificial que terminará por exterminarnos, no se me entienda mal, solo estoy sosteniendo que su posibilidad es, a día de hoy, tan sumamente remota que no debe interceder en nuestra forma de legislar actual. Hacerlo sería algo así como prohibir el cultivo y la venta de setas porque sería posible una rebelión de los hongos tal y como se nos describe en la serie The Last of Us. También habría entonces que comenzar las prevenciones contra un apocalipsis zombi, una rebelión de los simios, invasión extraterrestre, glaciación repentina, muerte temprana del sol… ¡Todo esto también entra en el rango de la posibilidad!

Los LLMs son unos artefactos tecnológicamente fabulosos que, con total seguridad, van a cambiar muchas cosas en nuestra forma de trabajar y de realizar multitud de tareas. También tienen un obvio lado perverso contra el que hay que legislar. Sin embargo, hay que comprenderlos como una gran oportunidad más que como un riesgo existencial. Problemas tan acuciantes como el cambio climático o las crisis de diversa índole que asolan periódicamente nuestras frágiles democracias, pueden ser abordados con IA. Entonces, como bien sostiene Andrew Ng, no hay que parar el desarrollo de la IA, sino que hay que acelerarlo. Dejemos de preocuparnos por fantasías distópicas basadas en relatos de ciencia-ficción, y busquemos y fomentemos el enorme abanico de usos positivos que tiene esta potente tecnología.