La Inteligencia Artificial Chat GPT al aparato!!
El número de neuronas en el córtex humano es del orden de 1 seguido de 11 ceros (100.000 millones).
En número de neuronas en GPT-3, el modelo de lenguaje que forma parte de la Inteligencia Artificial Chat GPT de OpenAI, es del orden de 1 seguido de 8 ceros (100 millones).
Por otro lado, esta diferencia de tres órdenes de magnitud crece si nos referimos a las conexiones entre neuronas, que en el caso del cerebro son más numerosas y difusas que en GPT-3.
Aún salvando las distancias que hasta ahora nos impone nuestro conocimiento sobre el funcionamiento del cerebro humano, la comparativa es sorprendente: “Solo” algunas decenas de órdenes de magnitud!…
Sin entrar en la infinidad de discusiones que inundan la red sobre la experiencia conversacional, los aspectos éticos o las implicaciones de la saturación exponencial de contenidos generados artificialmente en internet, me pregunto:
¿Qué nivel de complejidad neural, en número de neuronas, podremos alcanzar en los próximos 20 años?
Es sabido que con apenas 4 meses de existencia, La inteligencia artificial Chat GPT ha generado un impacto de opinión notable. ¿Se trasladará este impacto a la actividad real? ¿En qué industrias se convertirá en un elemento de transformación?, ¿Se quedará únicamente en opinión?

Es pronto para saberlo, pero parece claro que hay muchas personas de diferentes perfiles pensando cómo aplicarlo e incluso aplicándolo ya a su actividad. Aparte de GPT-3, que no deja de ser una prueba de concepto, la IA ha llegado para quedarse.
Una creciente lista de aplicaciones son ya una realidad. Aunque quizás con menos notoriedad que ChatGPT, la IA forma ya parte de la caja de herramientas de profesionales y sistemas informáticos.
El propio consenso, al menos a nivel de aplicación, de lo que es IA es dinámico. Lo que era considerado IA hace 10 años ya no lo es ahora. No parece aventurado pensar que esto seguirá pasando dentro de 10 años.
Como conclusión me pregunto sobre la controvertida posibilidad de que los contenidos sintéticos se usen para entrenar nuevos modelos y así sucesivamente.
Pero en cierto modo, ¿no es así como aprendemos y generamos conocimiento los humanos? Consumimos información y contenidos de otros para generar los nuestros y estos a su vez son usados por otros.

Es obvio que hay dos grandes diferencias: la escala y la forma en la que generamos nuestro conocimiento y contenidos. ChatGPT ha sido entrenado con una ingente cantidad de contenido.
Podría decirse que simplemente responde algo que ha leído, algo que está en su memoria, aunque eso sería simplificar demasiado como realmente funciona ChatGPT.
Detractores y defensores llenan los blogs y foros de argumentos en ambos sentidos. Nos esperan por delante grandes retos técnicos, económicos y sociales que nos presentarán amenazas y oportunidades. Los humanos, tendremos que decidir, al menos de momento… cómo afrontarlos.
Os dejo abajo el resumen de una entrevista reciente a Sam Altman (CEO de OpenAI) en el canal de divulgación Dot CSV (@dotCSV).
Me ha gustado su sensatez y su visión, parece alguien con las ideas bien amuebladas: