Publicado el 20 de abril de 2025.
Etiquetas:
[Alguien manda un correo elogioso sobre «las predicciones de Ray Kurzwell», a lo que «Ricardo» opone que Kurzwell le parece «un charlatán». Sigue una discusión llena de corrección política sobre si se le puede o no llamar «charlatán» a Kurzwell].
Hola,
La verdad es que simpatizo mucho, al respecto, con Ricardo. Todo este tecnoentusiasmo me parece francamente papanatas: puesto que no coincide, en general, con el estado de cosas, tiene que ser una forma de lo que los anglosajones denominan wishful thinking, es decir, una forma de fe.
Veámoslo, para tomar un ejemplo cualquiera, con la lista «de aciertos» que nos manda E. Tomo solo algunos de los puntos.
✅ Accurate or Largely Accurate Predictions
📱 1990s Predictions for 2009 (from "The Age of Intelligent Machines")
Speech recognition: Predicted that computers would understand spoken language. By 2009, systems like Dragon NaturallySpeaking and early Siri-type tools existed.
¡No, hombre, no! Los ordenadores no entienden el lenguaje hablado. O, en el sentido más reducido de «entender», lo entienden «un poco», «a medias», o «a veces». Pero eso no es «entender el lenguaje hablado», a menos que le insuflemos a la cosa un grado de optimismo que solo puede correr por nuestra cuenta.
Veamos. En los 90, el OS/2 de IBM venía con el VoiceType. Le podías hablar, y te lo ponía por escrito. A veces se equivocaba.
Ahora, en 2025, Windows viene con reconocimiento de voz. Le puedes hablar, y te lo pone por escrito. A veces se equivoca.
Que «a veces se equivoca» quiere decir que, a todos los efectos prácticos, no sirve para casi nada, excepto para algunas pocas aplicaciones nicho.
Por ejemplo: voy a dar una clase. Digo «el cuadrado de la distancia», esperando que el programa lo escriba. El programa escribe «el cardado de Exuperancia». La gente se ríe. Yo me cabreo. Se ha terminado la suspensión de la incredulidad, que, sí Señor, sí, también es necesaria para la ciencia.
Podemos discutir si pasa mucho o si pasa poco. Pero es que solo con que pase una vez por clase, ya el producto se convierte en algo completamente inusable. Al menos para mí. Cuando cuento algo, voy cogiendo carrerilla, momentum, fuerza; mi explicación se va volviendo más densa; me gusta meter al auditorio en una maraña cada vez más apretada de sentido... y estás chorradas tecnológicas me mandan de nuevo a la casilla cero. No puedo aceptarlo. Ni creo que pueda aceptarlo, tampoco, nadie que tenga algo serio que contar.
Si mientras estoy hablando me parece estupendo que se me aparezca continuamente San Apapucio Trompetero para interrumpirme tocando una bonita melodía, la única razón que puede haber para que me parezca bien es que el tema de mi discurso sea, justamente, el propio San Apapucio Trompetero.
Ahora, y a la inversa: no veo de qué modo puede llegar a ser tolerable el número de fallos que tienen los sistemas de reconocimiento de voz, si uno tiene algo que decir, que no sea lo fantásticos que son (¡no lo son!) los sistemas de reconocimiento de voz. No comprendo la dimensión de una pasión por la tecnología que convertiría en negligible aquello que tengo que decir.
Bueno, pues eso: los ordenadores no entienden el lenguaje. En serio, aceptadlo. Vivir en el engaño es malo.
Widespread use of wearable tech: Predicted eyeglass displays and wearable computers, which resemble today’s AR/VR devices and smart glasses.
Otrosí. No existen cosas tales como unas gafas inteligentes; hay unos mamotretos espantosamente caros que sirven para poco y que marean a la gente. Hasta Apple se está retirando de estas tonterías.
Lo que sí que hay es mucho hype, y mucha gente corriendo detrás de eso, en una especie de fiebre del oro.
No es una predicción cumplida. Es una predicción que no se ha cumplido, y en la que se cree. Me interesa muy poco.
🧠 Predictions from "The Age of Spiritual Machines" (1999)
For the 2000s-2010s:
Personal assistants: Predicted intelligent virtual assistants (like Siri, Alexa, and Google Assistant).
¡Por favor! Siri, Alexa y el OK Google no solo no son inteligentes, sino que son más bien subnormales. En serio, despertad de esa pesadilla. La inteligencia es otra cosa.
Seamos claros: los «asistentes personales inteligentes» ni te asisten, ni son personales, ni son inteligentes. No son inteligentes, porque no entienden una mierda; no son personales, porque no trabajan para ti, sino para sus amos, que los han fabricado; y no son asistentes, porque no te ayudan, sino que son mecanismos sutiles, o no tan sutiles, de fidelización, de adicción y de venta.
Últimamente, el pesao del Copilot me aparece en Firefox, sin que lo haya llamado. Conversación:
Yo: ¿Me puedes decir qué narices haces, apareciendo en mi ordenador, cuando no te he llamado?
Copilot: Perdona, perdona (etc). Yo sólo aparezco cuando me llaman, me tienes que haber llamado.
Yo: Te puedo asegurar que no ha sido así: ayer me fui y no estabas, y al volver te he encontrado. Mientras no he estado aquí no he podido llamarte.
Copilot: Perdona, perdona (etc). Es que no controlo cuándo aparezco y cuándo no.
Yo: ¡Acabáramos! Primero me dices que solo apareces cuando te llaman, y después me dices que no controlas cuándo apareces. Pero una cosa contradice a la otra. ¿De qué me sirve un asistente «inteligente» que incurre en contradicciones? ¡Desaparece de mi vista!
Copilot: Perdona, perdona (etc).
(Da capo, ad nauseam)
Oye, y eso son los LLMs, lo más granado de las IAs. ¿En serio que Alexa es «inteligente»? ¡Anda ya! Y, como «predicción exitosa», pues ¡vaya churro!
People speaking to computers to give commands: ✔️ Common with smartphones, smart home devices.
¡Que no! Que la mitad de las veces te entienden mal, por favor. La gente solo lo usa para poner música, y para encender las luces; cuando se ponen graciosos y te quieren contar un chiste, hasta al más tecnófilo le dan ganas de matarlos. Y todo eso de subir y bajar las persianas, o de encender las luces, dura hasta que se resetea el router, y entonces te dejan de funcionar las luces y las persianas y se va a tomar todo viento fresco. Algunos, los más capullos, se quedan encerrados fuera de sus casas. Bien les está, por papanatas.
Para mí, la primera vez que perdí la configuración de todos los aparatos de IoT que tenía fue también la última. Hay que saber aprender de los errores. Vuelvo sobre esto en un instante, porque tiene su importancia, y creo que no se entiende bien.
Eyeglasses with integrated screens: ✔️ Think Google Glass, Snap Spectacles, and upcoming Apple Vision Pro.
¡Que no! Son una frikada, hombre, o algo para un mercado nicho.
[El LanguageTool me sugiere «fritada» en vez de «frikada». Me está entrando un poco de hambre, y eso que yo al tul lo quiero mucho...]
En fin. Una pequeña reflexión, para terminar.
El ser humano hace dos tipos de cosas: las cosas normales, y las cosas con asterisco. Cuando alguien hace una cosa normal y le sale mal, puede ser que lo vuelva a intentar unas cuantas veces; pero, si después de varias veces le sigue saliendo mal, la gente, por lo general, lo deja, y se pone a intentar otra cosa.
En cambio, cuando uno hace una cosa con asterisco y le sale mal, pues lo vuelve a intentar y lo vuelve a intentar y lo vuelve a intentar y lo vuelve a intentar. Se ve que las cosas con asterisco no se puede no hacerlas. Deben de ser importantísimas. Debe ser esencial que las hagamos. Debe de haber un mandato que nos dice que las tenemos que hacer, sobre todas las cosas. Si estuviésemos en una película de Woody Allen, la cara, gigantesca, de nuestra mamá ocuparía todo el cielo, y nos diría: ¡Haz eso!, ¡Haz eso!
Si al subir el Matagalls me rompo una pierna, al intentar llegar al Aneto casi me mato, y al final en el Pedraforca estoy a punto de perder un ojo, a lo mejor deduzco que sería mejor que me dedique al ajedrez. Mas me vale que deduzca eso. ¿Se entiende?
¡Ah, pero si con mi primera novia fue un desastre, con mi segunda novia casi nos matamos, con mi primera mujer terminamos en comisaría y con mi segunda mujer nos odiamos a muerte, tengo que seguir intentándolo! ¡Claro que sí! ¡Es el amor! ¡El amooooor! ¡Tengo derecho a ello! (De hecho, por cómo me comporto, parecería que no solo tengo derecho, sino que es obligatorio).
«Blasco, se te va mucho, ¿no? Estábamos hablando del Ray Kurzwell».
Ah, sí; ahora aterrizo: un poco de paciencia. Eso: creo que una CrockPot no me servirá de nada, pero paso un finde en casa de mi prima y me enamoro (de su CrockPot, no de mi prima); en seguida me compro una como la de ella. He cambiado de opinión. Pienso que un Roner me vendrá de perlas. Me compro uno. En seguida me canso, y termina encerrado en un armario: esto de comprar bolsitas y hacerl el vacío es demasiado lioso. He cambiado de opinión. Siempre pensé que los callos eran una comida asquerosa, repugnante. Pruebo los que prepara Blasco. Son excelsos, deliciosos; me encantan. He cambiado de opinión.
En general, la inteligencia (la inteligencia: ¿os suena?) tiene que ver con eso: con saber cuándo nos conviene cambiar de opinión. Cuando no puedo cambiar de opinión, tengo fe, en vez de remitirme a la experiencia, y me vuelvo un poco tontorrón, un papanatas, porque ya me interesa más mi creencia que la realidad. Como cuando creo en el amor, a pesar de que nunca, verdaderamente nunca, me ha funcionado.
O cuando creo que existe el ratoncito Perez, el ángel de la guarda (especialmente, el llamado Marcelo, aparcacoches del inefable Fernández Díaz), los asistentes inteligentes, una cosa muy mala que se llama woke, o la Unidad de España.
En fin. A mí, qué quieres que te diga, me interesa más la realidad que las creencias. Y la ciencia, más que el hype y el marketing.
Un abrazo,