Desarrolladores

Una Introducción a la Codificación con Vibra

Autor

Bri Wylde

Fecha de publicación

Si eres como yo y creciste pensando en la IA como robots malvados y conscientes empeñados en destruir la humanidad, entonces contemplar las implicaciones de la codificación por vibración puede parecer poca cosa. Sin embargo, aquí estamos. La IA ya no es solo material de ciencia ficción; se está integrando en nuestra vida cotidiana, moldeando industrias y transformando cómo construimos software.

Este año ha visto un cambio masivo en el panorama de los desarrolladores, particularmente en hackatones. Casi todos están utilizando la IA de alguna manera para construir sus proyectos, ya sea como herramienta complementaria o para crear aplicaciones completas desde cero. Pero aunque la programación asistida por IA puede ser poderosa, no está exenta de desafíos. Navegar por la gran cantidad de herramientas disponibles, averiguar cómo hacer preguntas, proporcionar el contexto adecuado y trabajar con las peculiaridades de la IA puede frustrar tanto a desarrolladores experimentados como a novatos.

Este artículo desglosa algunos conceptos básicos, mejores prácticas y recursos para explorar mientras experimentas, juegas y desarrollas en tu viaje de codificación por vibración.

Pero primero, un poco sobre este asunto de la codificación por vibración…

La codificación por vibración es un proceso donde los desarrolladores describen lo que quieren en lenguaje sencillo, y un modelo de lenguaje grande (LLM) traduce eso en código funcional. Hay varias formas distintas en que los codificadores pueden interactuar con un LLM: pueden pedirle que localice características o componentes específicos en una base de código, ahorrando tiempo al navegar por proyectos grandes; pueden colaborar con él para planificar una estrategia de construcción, refinando ideas a través de un diálogo antes de que se escriba cualquier código; o pueden hacer que tome un papel más activo, generando código y ensamblando todo el proyecto.

Cuando se utiliza la IA para codificar, el papel del desarrollador cambia de ser solo un programador a ser también un gestor de producto, proporcionando el contexto y las instrucciones, guiando la dirección del proyecto y probando los resultados que la IA entrega. Cuando se hace bien, la codificación por vibración acelera los ciclos de desarrollo, fomenta la experimentación creativa y hace que la codificación sea más accesible para nuevos programadores.

Con esos conceptos básicos en mente, veamos algunas mejores prácticas para usar la IA en tu flujo de trabajo.

Mejores prácticas de programación asistida por IA

El arte de hacer preguntas

Hacer preguntas es la instrucción directa que le das a un LLM para decirle lo que quieres que haga. En la programación asistida por IA, hacer preguntas fuertes es tan importante como la codificación en sí. Puedes imaginar un LLM como un desarrollador brillante que nunca ha construido nada antes. Tienen las habilidades, pero no el contexto. Tu trabajo es darles instrucciones efectivas para que sepan exactamente lo que quieres que creen.

Para crear una pregunta sólida, primero elimina la ambigüedad. Intenta no dejar al LLM adivinando porque adivinará, y no tiene miedo de estar confiadamente equivocado. Sé explícito sobre tus objetivos, requisitos y limitaciones, e incluye muchos detalles. Está bien pensar en voz alta, o incluso divagar un poco; los modelos de IA manejan el flujo de conciencia sorprendentemente bien, y tu tren de pensamiento en evolución puede ayudar al modelo de IA a razonar a través de la solicitud. Habla como lo harías con un colaborador humano, y (consejo profesional) incluso intenta usar texto-a-voz para facilitar la generación de preguntas ricas y detalladas.

Segundo, sé orientado a resultados. Dile al LLM lo que quieres lograr y por qué, en lugar de microgestionar el cómo. Un objetivo final claro le da al modelo espacio para proponer soluciones eficientes que quizás no hayas considerado. Enmarcar la solicitud con una premisa simple (por ejemplo, “construir un calabozo retro”) y luego llenarla con requisitos específicos ayuda al LLM a entender tanto por dónde empezar como lo que quieres que sea el resultado final.

Finalmente, usa palabras clave, especificaciones y contexto relevante. En tu pregunta, indica el lenguaje de programación, estilo y enlaza a cualquier repositorio, contratos de ejemplo o interfaces que deba referenciar antes de comenzar a generar código para asegurarte de que está trabajando con la información correcta desde el principio. Palabras clave como “pixelado” o “minimalista” pueden establecer el tono creativo para los proyectos, mientras que instrucciones explícitas como “no hacer suposiciones” o “evitar ejemplos de código obsoletos” le dicen al modelo de IA qué evitar.

No hagas esto:

Haz un contrato inteligente para NFTs

Intenta esto en su lugar:

Construye un contrato inteligente minimalista en Rust para Stellar que implemente un juego de Tic-Tac-Toe para dos jugadores en la blockchain de Stellar. Almacena el tablero 3x3 en el estado del contrato, rastrea los turnos por dirección de Stellar, valida movimientos, detecta victorias/empates y expone funciones para iniciar un juego, hacer un movimiento y verificar el estado. Incluye un conjunto de pruebas sencillo e instrucciones para desplegar con stellar-cli. Mantenlo autocontenido sin dependencias más allá del SDK de Rust de Soroban. Referencia: https://mcp.openzeppelin.com/, https://github.com/script3, https://github.com/soroswap.

Mejores prácticas de programación asistida por IA

Proporcionando contexto

El contexto es la información de fondo que le das a un LLM para que pueda adaptar su respuesta a las necesidades de tu proyecto. Piensa en la pregunta como las instrucciones, y el contexto como el material de referencia. Le dices al LLM qué hacer en la pregunta, y proporcionas los recursos que necesita para completar la tarea en el contexto. Esto podría incluir tu directorio de trabajo actual, repositorios relevantes, historial de conversación, instrucciones del sistema y más.

Dependiendo del LLM, el contexto puede reiniciarse entre conversaciones, y el modelo de IA no “recuerda” inherentemente nada más allá de lo que está en la ventana de contexto actual. Esta limitación existe porque los LLMs a menudo están aislados de la mayoría de los datos y herramientas en vivo. Los servidores MCP (Model Context Protocol) resuelven este problema actuando como un puente entre el LLM y los recursos externos. Pueden traer información faltante o actualizada a demanda. Por ejemplo, conectándose a tu repositorio de Git para el historial de commits, consultando una base de datos para cambios de esquema, o buscando ejemplos de código específicos de la versión. También pueden proporcionar al modelo de IA conocimiento relevante y específico del dominio de fuentes confiables, dándole acceso a información especializada para esa interacción específica.

Al aumentar el conocimiento de trabajo del LLM, los servidores MCP permiten la continuidad a través de las sesiones y abren capacidades que no serían posibles solo con preguntas. Exploraremos tipos de servidores MCP más adelante, pero por ahora, sepa que son fundamentales para proporcionar contexto de manera efectiva en la programación asistida por IA.

Mejores prácticas de programación asistida por IA

Herramientas mix-n-match

Cuando se utiliza la IA para programar, es fácil caer en la parálisis por análisis: un estado de estar abrumado por la cantidad de opciones disponibles. La clave es experimentar y no desanimarse cuando una herramienta no puede completar una tarea de un solo golpe. Mezcla y combina basándote en el trabajo, ya que cada herramienta tiene fortalezas y especializaciones únicas.

Aquí hay algunas recomendaciones para ayudarte a encontrar un buen punto de partida.

Editores de código con IA

Un editor de código con IA es un entorno de programación con capacidades avanzadas de IA integradas directamente en el flujo de trabajo. Evolucionando desde los IDEs tradicionales, estas herramientas son ideales para desarrolladores que quieren usar la IA para mejorar su proceso de codificación.

Algunos editores de código con IA populares son:

  • Cursor es un editor de código potenciado por IA basado en VS Code que integra modelos de IA directamente en el flujo de desarrollo. Puede generar, refactorizar y explicar código, ejecutar comandos e integrarse con herramientas externas a través de servidores MCP.
  • GitHub Copilot es un asistente de codificación con IA desarrollado por GitHub y OpenAI que se integra en editores como VS Code. Sugiere código, escribe funciones y ofrece ayuda contextual basada en tu proyecto actual.
  • Lovable es una plataforma de desarrollo que se integra con varios LLMs como OpenAI, Anthropic, Groq y otros, además utiliza React, Tailwind, CSS y Vite para el frontend para permitir a los usuarios crear sitios web completos a través de lenguaje natural.
  • Replit es un IDE basado en navegador que te permite codificar, desplegar y colaborar para generar, refactorizar y construir aplicaciones completas desde cualquier dispositivo con conexión a internet. Está alojado en la nube y es amigable para principiantes, sin necesidad de configuración.
  • Windsurf es un IDE de escritorio que comprende profundamente tu base de código, permite vistas previas instantáneas, ediciones en línea, despliegues y linting automatizado sin salir del editor. Sus agentes de IA son hipercontextuales y se integran profundamente en tu código de trabajo.
  • Zed es un editor de código rápido basado en Rust enfocado en la colaboración en tiempo real y flujos de trabajo impulsados por IA. Su énfasis está en el rendimiento, la apertura y permitir a los desarrolladores dirigir completamente las intervenciones de IA a través de preguntas poderosas y contexto editable.

LLMs

Los LLM varían ampliamente en cualidades y capacidades como velocidad, costo, longitud de contexto y capacidad de razonamiento; por lo tanto, la mejor elección de plataforma depende de tu caso de uso específico. Muchos editores de código AI ya admiten múltiples modelos de LLM, facilitando el cambio mientras trabajas. Si un modelo tiene dificultades con una tarea, simplemente prueba otro.

Aquí hay algunas opciones populares de LLM y sus diferencias:

  • Claude Sonnet ofrece un fuerte equilibrio de velocidad, costo y capacidad de razonamiento. Es ideal para la mayoría de las tareas de codificación, escritura e investigación donde la iteración rápida y la asequibilidad importan más que el máximo rendimiento absoluto. Sonnet es bueno para conseguir algo hecho bien, rápido y asequible.
  • Claude Opus es de primer nivel, optimizado para la máxima precisión y profundidad de razonamiento, incluso en problemas muy complejos o matizados. Es mejor para investigaciones profundas o situaciones donde la máxima calidad supera a la velocidad y el costo.
  • OpenAI GPT-5 ofrece razonamiento de alta gama, codificación y desempeño de tareas de múltiples pasos con modos flexibles para equilibrar velocidad y profundidad. Es mejor para proyectos donde la precisión y el pensamiento complejo importan más que el costo.
  • OpenAI o3 es el modelo de razonamiento más fuerte de OpenAI, destacando en STEM, lógica y resolución de problemas. Es más lento y costoso, pero ideal si necesitas la máxima calidad de razonamiento.
  • Gemini 2.5 combina capacidades multimodales y una enorme ventana de contexto con un fuerte razonamiento general. Es rentable, lo que lo convierte en una buena elección para tareas de gran contexto y transmedia a velocidad.
  • Grok 4 ofrece razonamiento competitivo y búsqueda en tiempo real con un estilo conversacional. Es adecuado para trabajo exploratorio o impulsado por investigación.

Estos son solo seis de muchos LLM disponibles: ¡sal y ve qué otras herramientas únicas puedes probar!


Servidores MCP

Los servidores MCP suelen caer en dos categorías: herramientas y datos. Los servidores MCP orientados a herramientas dan a tu LLM la capacidad de tomar acción en tu entorno de desarrollo, como ejecutar pruebas, desplegar contratos, firmar transacciones o interactuar con APIs. Los servidores MCP orientados a datos alimentan a tu LLM con información especializada que de otro modo no sabría. Saber qué tipo necesitas para una tarea dada facilita elegir las integraciones de servidor MCP correctas para incluir en tu configuración.

Aquí hay algunas recomendaciones para probar:

  • Context7 es un servidor MCP basado en datos que provee a los LLM con ejemplos de código específicos de la versión y documentación actualizada de fuentes reales (paquetes, repos, docs, etc.) directamente en los prompts. Actúa como una base de conocimiento de documentación a través de muchas bibliotecas y marcos, ayudando a prevenir respuestas desactualizadas o imaginadas.
  • Perplexity es un servidor MCP basado en datos que conecta modelos de IA a capacidades de búsqueda web para investigación en tiempo real y amplia en la web para entregar información relevante a los usuarios.
  • DeepWiki es un servidor MCP basado en datos que da a los LLM acceso programático a documentación estructurada auto-generada para repositorios públicos de GitHub. Permite la recuperación dirigida y Q&A contextual.
  • Playwright es un servidor MCP basado en herramientas que permite la automatización del navegador, dejando que un modelo de IA abra páginas, llene formularios, haga clic en botones y ejecute pruebas usando datos de accesibilidad estructurados en lugar de entradas basadas en píxeles para hacer ajustes de diseño.
  • Cloudflare es un servidor MCP basado en herramientas que permite a los modelos de IA interactuar con servicios externos y fuentes de datos, habilitando al LLM para realizar acciones como enviar correos electrónicos, desplegar código o acceder a información de internet. También ofrece un servidor MCP de documentación basado en datos.

Pero como se mencionó arriba, lo más importante es...


¡Sal ahí y experimenta!

Un gran error que la gente comete al usar LLM por primera vez es esperar la respuesta perfecta después de una sola entrada, lo que rara vez da el resultado deseado. Trabajar con IA es como cualquier otra habilidad; mejoras con la experimentación. Comienza usándola para proyectos pequeños o partes aisladas de tu flujo de trabajo para que puedas probar ideas sin arriesgar la construcción completa. Y reintenta cualquier cosa que no funcionó con diferentes modelos, prompts y contextos.

La IA va a ser parte de la programación del futuro, estés listo o no. Cuanto antes experimentes, te adaptes y construyas tus propias mejores prácticas, más preparado estarás para el futuro.

¿Listo para empezar a codificar con vibra? Aquí hay otros recursos para comenzar:

Mira una demostración de codificación con vibra de Tyler van der Hoeven en YouTube: Aprende el Secreto de Kalepail para Hacer que la IA Trabaje para Él

Ryan Carson, CEO, fundador y desarrollador, tiene grandes perspectivas sobre el estado de la IA en la codificación. Síguelo en X.

Encuentra y sigue a tus compañías de IA favoritas que construyen las herramientas que amas: OpenAI, Anthropic, Gemini, Cursor, etc., y participa con su contenido!

Y únete al Stellar Developer Discord para mostrar tus propios proyectos de codificación con vibra!