los nuevos sistemas operativos
que son las llms?
Un modelo de lenguaje es, en esencia, un paquete compuesto por dos archivos: un archivo de parámetros y archivos de código necesario para ejecutar dichos parámetros Mientras que las llms se entrenaron principalmente con datos públicos de internet (páginas web, libros abiertos, código), GPT-5 y modelos recientes podemos asumir que incluye datos publicos, con licencia y creados por humanos El objetivo fundamental de un LLM es predecir la siguiente palabra en una secuencia Aunque parece una tarea simple, este objetivo obliga a la red neuronal a aprender y comprimir una enorme cantidad de conocimiento sobre el mundo dentro de sus parámetros para ser precisa en sus predicciones uando se ejecuta el modelo (inferencia), este genera texto palabra por palabra. Karpathy señala que, en esta etapa, el modelo básicamente "sueña" documentos de internet, imitando la distribución de los datos con los que fue entrenado, lo que a veces resulta en alucinaciones o información incorrecta aunque conocemos perfectamente las operaciones matemáticas y el código detrás de la arquitectura, los miles de millones de parámetros dispersos por la red son artefactos inescrutables
pueden predecir las palabras gracias a Los Transformers que son una arquitectura de redes neuronales diseñada para entender y generar texto. Su idea clave es que el modelo presta atención a todas las palabras de un texto al mismo tiempo, en lugar de leerlas una por una. Gracias a un mecanismo llamado atención, el Transformer puede identificar qué palabras son más importantes entre sí, incluso si están lejos dentro de una frase. Esto le permite comprender mejor el contexto y el significado del lenguaje.
el sistema operativo
A diferencia de un programa tradicional que sigue un código rígido (si A, entonces B), los nuevos sistemas operativos utiliza el razonamiento probabilístico para decidir qué herramienta necesita usar. Si le pides que analice un PDF, el "sistema operativo" decide abrir la herramienta de lectura, extraer texto y luego procesarlo. En la computación clásica, el núcleo (kernel) gestiona el hardware (la memoria, los hilos el disco duro). con los llms, el lenguaje natural es el protocolo de comunicación. El sistema no solo entiende el lenguaje humano, sino que genera el código necesario para comunicarse con otras máquinas.
la memoria ram seria gestionada por el llm pero es a corto plazo y se refiere Todo lo que el modelo "lee" en el chat o sesion actual. Si se llena, el sistema empieza a "olvidar".
el disco duro como tal seria El acceso a archivos locales o bases de datos externas. El LLM no sabe todo de memoria, pero sabe cómo buscar en su "disco" por medio de RAG que es basicamente un sistema que nos permite subir informacion propia hacia el modelo.
El teclado y mouse son reemplazados por la Visión (cámaras) y el Audio (micrófonos). y para finalizar El código ya no es C++ o Python; es el inglés, español o cualquier lengua humana o al menos para gran parte de las personas
eventualmente, no "usaremos" una Inteligencia artificial viviremos dentro de un sistema operativo que es una Inteligencia artifical. El hardware seguirá ahí, pero la forma en que gestionamos archivos, navegamos por internet y creamos cosas será a través de una conversacion con un orquestador que entiende el contexto y tiene acceso a todas las herramientas digitales.
