Guía práctica

IA y tecnología
sin rodeos

Todo lo que necesitas saber para entender — y hablarle bien — a las herramientas de inteligencia artificial. Sin código, sin jerga, con ejemplos de la vida real.

IA & LLMs Prompts & Contexto Agentes Datos & Archivos Hardcoding SSOT APIs RAG

Cómo funciona la IA

LLM

Large Language Model
Modelo de lenguaje grande

Es el "motor" detrás de herramientas como ChatGPT, Claude o Gemini. Un LLM es un programa entrenado con cantidades enormes de texto (libros, páginas web, código, artículos) que aprendió a predecir qué palabras van bien después de otras. No "piensa" como un humano — calcula probabilidades de texto muy rápido y muy bien.

Analogía Imagina que leíste todos los libros del mundo y ahora puedes completar cualquier frase con mucho sentido. Eso hace un LLM — pero a escala de billones de palabras.
Tokens

La "moneda" de los modelos

Los modelos de IA no procesan palabras completas — procesan fragmentos de texto llamados tokens. Una palabra como "hola" puede ser 1 token. "Extraordinario" puede ser 3. El espacio, los signos de puntuación, incluso partes de palabras cuentan.

Los tokens importan porque los modelos cobran por tokens y tienen un límite de cuántos pueden procesar a la vez (eso es la ventana de contexto).

Texto corto

"Hola, ¿cómo estás?" → ~7 tokens

Texto largo

Una novela de 200 páginas → ~120.000 tokens

Temperatura

¿Qué tan creativo responde?

La temperatura es un número (generalmente entre 0 y 1) que controla qué tan predecible o creativa es la respuesta del modelo.

Cómo funciona Temp 0 → Siempre la respuesta más probable. Ideal para datos exactos.

Temp 0.7 → Balance entre precisión y variedad.

Temp 1 → Libre y creativo (puede ser raro).
Alucinaciones

Cuando la IA inventa

Los LLMs a veces generan información que suena completamente real pero es falsa. No lo hacen con mala intención — simplemente el modelo "calcula" una respuesta plausible que resulta incorrecta.

Nunca uses datos críticos (fechas, cifras, nombres propios, leyes) sin verificarlos. La IA puede estar equivocada con total confianza.

Prompts y contexto

Prompt

Lo que le dices a la IA

Un prompt es el mensaje o instrucción que le envías a un modelo de IA. Puede ser una pregunta, una orden, un ejemplo, o una combinación de todo. La calidad del prompt determina casi todo en la calidad de la respuesta.

Prompt vago

"Escríbeme un correo."

Prompt concreto

"Escríbeme un correo para recordarle a un cliente su reunión del martes 4pm. Tono: amable y directo. Máximo 4 líneas."

System Prompt

Las instrucciones invisibles

Cuando usas herramientas de IA (como un chatbot de una empresa), alguien escribió de antemano instrucciones que el modelo sigue siempre, antes de que tú escribas nada. Eso es el system prompt: define la personalidad, los límites y el rol del asistente.

Ejemplo real El chatbot de una aerolínea tiene un system prompt que dice algo como: "Eres un asistente de servicio al cliente de AeroX. Solo puedes responder sobre vuelos, equipaje y reservas. No discutas temas fuera de eso." Tú no lo ves, pero governa todo.
Contexto · Context Window

La memoria de corto plazo

Cada vez que hablas con un modelo de IA, todo lo que está en la conversación activa (tus mensajes, las respuestas del modelo, los documentos que pegaste) se llama contexto. El modelo solo "recuerda" lo que está dentro de su ventana de contexto actual.

Si la conversación se hace muy larga y supera el límite (medido en tokens), el modelo empieza a "olvidar" lo que pasó al principio. Es como una pizarra con espacio limitado: cuando se llena, borras de arriba para seguir escribiendo abajo.

Si notas que la IA "olvidó" algo que le dijiste hace rato, probablemente salió de su contexto. Empieza una conversación nueva o vuelve a pegarle la info clave.

Datos y arquitectura

Hardcodeado · Quemado

Un valor escrito directo en el código

Cuando un valor está "hardcodeado" o "quemado" significa que está escrito fijo en el código, en lugar de venir de una variable o una fuente de datos. Si ese valor cambia, alguien tiene que ir a buscar exactamente dónde está escrito y cambiarlo a mano.

Hardcodeado (malo)
# Si cambia el precio, hay que editar el código
precio = 25000
Variable (mejor)
# El precio viene de config o base de datos
precio = config["precio_servicio"]
En la vida cotidiana: es como tener el número de tu médico escrito directamente en el cartel de tu nevera. Si cambia de número, tienes que borrar y escribir de nuevo. Si lo tuvieras en los contactos del celular, cambias en un solo lugar y listo.
SSOT · Single Source of Truth

Una sola fuente de la verdad

Es el principio de tener un único lugar donde vive la información oficial. Todos los sistemas, documentos y personas consultan ese mismo lugar. Si alguien necesita saber el dato, va a esa fuente — no a su versión guardada, no al correo de hace tres semanas, no al archivo "final_v2_revisado".

Ejemplo sin SSOT (caos) El precio de un servicio está en el PDF de la propuesta, en el Google Sheets de finanzas, en el correo que mandaste, y en el mensaje de WhatsApp. Cada uno tiene un número diferente. ¿Cuál es el correcto?
Ejemplo con SSOT (orden) El precio oficial vive en el Google Sheet "Tarifas 2026". Todos saben que ese es el número correcto. Cuando cambia, se cambia ahí — y en ningún otro lado.

TIPOS DE SSOT COMUNES:

.json

Config / Tokens

Colores, tamaños, valores de diseño

Sheets

Google Sheets

Presupuestos, tarifas, bases de datos livianas

Notion

Wiki / Docs

Procesos, información del equipo, guías

DB

Base de datos

Clientes, transacciones, registros a gran escala

Variables y constantes

Cajas con nombre

Una variable es como una caja con nombre que guarda un valor. En lugar de escribir el valor directamente, usas el nombre de la caja. Si el contenido cambia, cambias la caja — no todos los lugares donde la usas.

Una constante es una caja que no cambia (el número PI, el IVA, una URL fija).

Analogía cotidiana "La reunión es el día de la semana que tiene cliente nuevo" (variable) vs. "La reunión es el martes" (valor fijo). Si el día cambia, con la variable solo ajustas la definición una vez.
API

Application Programming Interface
El puente entre sistemas

Una API es una forma estándar en que dos sistemas se comunican entre sí. En lugar de que el Programa A conozca los detalles internos del Programa B, hay una "ventanilla" con reglas claras: puedes pedir esto, recibirás esto.

Tu app
API request
Servicio externo
Respuesta (JSON)
Ejemplo Cuando una app de delivery te muestra cuánto tiempo tarda tu pedido, está llamando a la API de Google Maps para calcular la ruta. Tu app no sabe cómo funciona Google Maps por dentro — solo sabe cómo pedirle información.

Tipos de archivos que vas a ver

Cuando trabajas con IA y tecnología vas a toparte con ciertos tipos de archivo. Aquí los más comunes, explicados sin tecnicismos.

.json

JSON

Archivo de datos estructurados. Es el formato favorito para pasar información entre sistemas. Parece un diccionario de pares clave-valor.

"nombre": "Mariana",
"rol": "CEO"
.md

Markdown

Texto con formato simple. Los # hacen títulos, los ** hacen negrita. Muy usado en documentación, README y notas de proyectos.

.env

Variables de entorno

Archivo secreto que guarda contraseñas, tokens y claves de acceso. NUNCA se sube a internet (está en el .gitignore). Es como la caja fuerte de la app.

.csv

CSV

Tabla de datos en texto plano, separada por comas. Excel o Google Sheets pueden abrirlo. Ideal para exportar e importar datos tabulares.

.html

HTML

La estructura de una página web. Define qué contiene la página (títulos, párrafos, imágenes). No define cómo se ve — eso lo hace el CSS.

.py

Python

Lenguaje de programación muy popular para IA, automatizaciones y análisis de datos. Fácil de leer aunque no sepas programar.

.yaml

YAML

Como JSON pero más legible para humanos. Muy usado en configuraciones de servidores y herramientas de IA.

.sql

SQL

Lenguaje para hablarle a bases de datos. Con SQL puedes pedir, filtrar, ordenar y combinar información de tablas enormes.

Sobre el archivo .env: Nunca compartas este archivo, nunca lo pegues en un chat, nunca lo subas a GitHub. Contiene las llaves de acceso a tus servicios (banco, APIs, plataformas). Si alguien lo obtiene, puede hacer cosas en tu nombre.

Agentes y flujos de trabajo

Agente de IA

IA que actúa, no solo responde

Un agente de IA es un modelo de lenguaje que puede tomar decisiones y ejecutar acciones, no solo generar texto. Puede buscar en internet, leer archivos, escribir código, llamar APIs, crear documentos — y encadenar varias de esas acciones para completar una tarea.

ChatGPT/Claude básico

Le preguntas, te responde. Tú decides qué hacer con esa respuesta.

Agente de IA

Le das un objetivo. Él planea los pasos, los ejecuta, verifica el resultado y entrega el producto final.

Ejemplo Le dices al agente: "Investiga los 5 mejores competidores de mi empresa, saca sus precios y hazme un resumen en Google Sheets." El agente busca en internet, lee las páginas, extrae la información, crea el Sheets y te avisa cuando terminó.
Tools · Herramientas

Los poderes del agente

Un agente por sí solo solo genera texto. Sus herramientas (tools) son las capacidades adicionales que le permiten hacer cosas reales: buscar en internet, leer archivos, escribir a una base de datos, enviar un correo, llamar una API.

Búsqueda web Leer archivos Escribir código Tomar screenshots Editar Sheets Enviar emails Consultar bases de datos
Multi-agente

Un equipo de IAs trabajando juntos

En lugar de un solo agente haciendo todo, puedes tener varios agentes especializados que se coordinan. Uno investiga, otro escribe, otro revisa, otro formatea y publica. Cada uno hace lo que mejor sabe hacer.

Orquestador
coordina
Investigador
Redactor
Revisor
Publicador

El orquestador es el agente jefe: recibe la tarea grande, la divide y asigna partes a los subagentes. Al final reúne todo.

RAG

Retrieval-Augmented Generation
IA con acceso a tus documentos

Por defecto, un modelo de IA solo sabe lo que aprendió durante su entrenamiento (hasta cierta fecha). Con RAG, el modelo puede buscar en tus propios documentos antes de responder — como si tuvieras un asistente que antes de contestar consulta tus manuales internos.

Tu pregunta
Busca en documentos
LLM genera respuesta
Respuesta contextualizada
Caso de uso real Una empresa sube su manual de políticas internas a un sistema RAG. Los empleados pueden preguntar "¿cuántos días de vacaciones tengo?" y la IA responde con la información exacta del manual actualizado — no con lo que "cree" saber.
Workflow

Flujo automatizado

Un workflow es una secuencia de pasos automatizados que se ejecutan en orden (o en paralelo) sin intervención humana. En el contexto de IA, es cómo conectas varias herramientas y modelos para lograr un objetivo complejo.

Ejemplo Cada mañana: extrae datos de Toggl → actualiza el Sheet → regenera el HTML → publica en el servidor.
MCP

Model Context Protocol

Un estándar creado por Anthropic para conectar modelos de IA con herramientas externas de forma segura y ordenada. Es como un USB universal: cualquier herramienta que "habla MCP" puede conectarse a cualquier IA compatible.

Notion, Figma, Supabase, Google Calendar — si tienen MCP, Claude puede leerlos y escribirlos directamente.
Embeddings

Convertir texto en coordenadas

Un embedding es una representación matemática de un texto (números en un espacio de muchas dimensiones). Lo importante: textos con significado similar quedan cerca en ese espacio. Esto permite que la IA encuentre documentos relevantes incluso si las palabras exactas no coinciden.

Analogía Imagina que tienes miles de notas en el piso. Los embeddings son como colocarlas en un mapa donde notas sobre "gatos" quedan cerca de "mascotas" y "veterinarios" — aunque no digan exactamente las mismas palabras.

Glosario rápido

LLM

Motor de IA entrenado con texto masivo. ChatGPT, Claude, Gemini son LLMs.

Token

Fragmento de texto que procesa el modelo. ~750 palabras ≈ 1.000 tokens.

Prompt

El mensaje que le envías a la IA. Su calidad determina la respuesta.

System Prompt

Instrucciones invisibles que definen el rol y límites del asistente.

Contexto

Todo lo que el modelo "ve" en la conversación activa. Tiene límite.

Temperatura

Creatividad del modelo. 0 = preciso. 1 = creativo (y menos predecible).

Alucinación

Cuando la IA inventa información falsa con total confianza.

Hardcodeado / Quemado

Valor escrito fijo en el código. Si cambia, hay que editar manualmente.

SSOT

Single Source of Truth. Un solo lugar oficial donde vive la información.

API

Puerta de acceso estándar para que dos sistemas se comuniquen.

Agente

IA que puede ejecutar acciones, no solo generar texto.

Orquestador

Agente jefe que coordina a otros agentes para completar una tarea.

RAG

IA que busca en tus documentos antes de responder. Evita alucinaciones.

Embeddings

Representación matemática del texto que permite comparar significados.

Workflow

Secuencia automatizada de pasos. Cuando termina uno, arranca el siguiente.

MCP

Protocolo para conectar IA con herramientas externas (Notion, Figma, etc.).

.env

Archivo secreto con contraseñas y claves. NUNCA compartir.

Variable

Caja con nombre que guarda un valor. Si cambia el valor, cambias la caja.