CLAVES

Tiene que ver con saber qué programar

Hace años que la programación ya no consiste en escribir código línea a línea, sino que, igual que ocurre con la traducción y otras actividades, el criterio humano se aplica sobre una base asistida, generalmente predictiva. Ha sido un cambio progresivo en el que la tarea principal ha ido pasando de ejecutar el trabajo a decidir cuándo un resultado es suficientemente bueno. Lo importante es quién tiene la capacidad para valorar esto último y cómo se construye el criterio si no es a través de la ejecución.

Esto permite que la persona o el equipo que decide crear la aplicación pueda centrarse en la idea general, qué problema resuelve la herramienta y cómo debería comportarse, y deje la ejecución en manos de una máquina cuya especialidad es precisamente programar.


Esto permite que la persona o el equipo que decide crear la aplicación pueda centrarse en la idea general, qué problema resuelve la herramienta y cómo debería comportarse, y deje la ejecución en manos de una máquina cuya especialidad es precisamente programar.

¿En qué se diferencia del no-code?

01

No-code

El no-code ya permitía crear productos digitales sin escribir código, pero siempre dentro de un marco cerrado predefinido y posibilidades acotadas por la propia herramienta. Funciona muy bien cuando el problema encaja en ese molde, pero empieza a tensarse cuando se necesita algo distinto o no previsto.

02

Vibe coding

El vibe coding no tiene límites establecidos, más allá de nuestra imaginación y capacidad descriptiva. La libertad es mucho mayor para adaptar lógica, flujos y comportamientos, aunque lo más común es que busquemos imitar los productos y funcionalidades digitales que más conocemos.

El acceso sin código a la tecnología se limitaba, al menos hasta ahora, casi siempre a la capa visible: interfaces, webs y diseños. El vibe coding empieza a romper esa frontera, porque acelera la creación de front-end pero permite que personas sin perfil técnico se asomen también al back-end, a la lógica y a los procesos internos que sostienen una aplicación.

En la práctica, y según el blog de Google Cloud, esta forma de programar por intuición suele adoptar dos enfoques muy distintos entre sí. El segundo enfoque arrastra una frustración habitual y una paradoja productiva:

01

Programación intuitiva “pura”

Es la versión más exploratoria, y suele ser la que ejecutan personas que no suelen programar y que confían casi por completo en que la IA hará lo correcto, sin entrar a revisar el código. La evaluación se realiza a alto nivel y teniendo en cuenta únicamente si el sistema funciona o no. Como dice Andrej Karpathy, co-fundador de OpenAI y autor legítimo del término vibe coding, “es olvidar que el código existe” y puede ser útil en iniciativas donde lo importante es la visualización rápida, pero no tanto en proyectos complejos.

02

Programación asistida por IA

Esta modalidad es la que usan ya más del 84% de los desarrolladores en el mundo, según una encuesta de Stack Overflow, en distintas actividades como generación de código, sugerencias, autocompletado y depuración de errores. La IA funciona como una especie de programador en pareja (peer programming) con quien rebotar ideas. La diferencia clave es que la persona usuaria revisa, prueba y entiende el código que se ha generado, y es capaz de detectar errores y riesgos.

03

La frustración

Sin embargo, la misma encuesta de Stack Overflow también recoge una realidad que nos arroja luz sobre la calidad del código generado: la mayor frustración individual, citada por el 66 % de los desarrolladores, es lidiar con soluciones de IA que están “casi bien, pero no del todo”, lo que a menudo deriva en la segunda gran frustración: el 45% de los profesionales afirma que depurar código generado por IA resulta más lento y consume más tiempo. La causa son las librerías de código, demasiado generalistas, y el trabajo que el experto debe hacer en adaptarlas a proyectos reales.

04

La paradoja

Un estudio reciente del MIT y METR revela una paradoja: los desarrolladores que usan IA estiman que son alrededor de un 20 % más productivos, cuando en realidad tardan un 19 % más en completar las tareas. La causa está en el tiempo perdido aceptando soluciones incorrectas, volviendo atrás para revisar resultados poco fiables y depurando errores. Entonces, si el ahorro en tiempo aún es ínfimo, ¿cuál es la relevancia del vibe coding? En perfiles técnicos, la agilidad mental y la reducción del coste de arranque. En no técnicos, la posibilidad que nos ofrece para expresarnos, para bajar de lo abstracto a lo concreto y guiar proyectos desde el prototipado.

01

¿Con qué herramienta?

Cuando no tenemos habilidades programáticas ni un entorno habitual de programación, podemos recurrir al vibe coding con herramientas diseñadas para ello, pensadas para generar código a partir de prompts y acelerar la construcción de prototipos. Todo depende de lo que estemos buscando:

Si lo que buscas es…

Ver ejemplos predefinidos para empezar no desde cero sino iterando en plantillas.

Qué aporta

Te permite empezar desde ideas predefinidas de webs y aplicaciones, al estilo de las plantillas de Canva.

Si lo que buscas es…

Ver tu idea convertida en una app visual lo antes posible desde el prompt.

Qué aporta

Convierte una descripción en lenguaje natural en una aplicación web con estructura de pantallas, menús y funcionalidades.

Si lo que buscas es…

Pasar de idea a app funcional, con conexiones y despliegue, desde un esquema en una servilleta.

Qué aporta

Genera aplicaciones con IA y las conecta directamente con infraestructura real (una base de datos, por ejemplo).

Si lo que buscas es…

Hacer vibe coding por primera vez y construir algo que funcione mientras aprendes.

Qué aporta

Un editor de código con IA que genera y modifica código contigo. Aprendes porque ves y te explica él mismo lo que va creando.

Si lo que buscas es…

Validar una idea técnica con un prototipo funcional mínimo solo para ver si funciona.

Qué aporta

Genera prototipos directamente desde el navegador para probar si algo es viable técnicamente.

Si lo que buscas es…

Explorar y testear una idea más desde lo visual y la experiencia interactiva.

Qué aporta

Genera interfaces y flujos visuales interactivos a partir de texto. Sirve para pensar y protipar pantallas y experiencia de uso.

Sin embargo, también es posible hacer vibe coding con nuestra IA de referencia, directamente en una conversación con ChatGPT o Gemini o, mejor aún, con GPTs o Gems especializados. En este caso, la clave está en describir desde la conversación el objetivo, el contexto y las limitaciones, pedir un primer borrador que se pueda visualizar y luego iterar sobre él. También podemos usar nuestra IA habitual para pelotear y entender cómo podría resolverse un problema antes de pasar a codificarlo en herramientas más específicas, incluso para crear el primer prompt.

Mención especial

8/10

Existe un consenso recurrente en comparativas especializadas que sitúan a Claude Code, de Anthropic, como la mejor opción para el vibe coding.

En concreto, el principal dato procede de SWE-bench, uno de los benchmarks más exigentes del sector que evalúa la capacidad de un perfil programador para resolver problemas reales de ingeniería de software. En esta comparativa, Claude Opus 4.5 ha obtenido un 80.9%, lo que significa que en 8 de cada 10 casos es capaz de entender un problema real, modificar el código correctamente y ofrecer una solución. Esta puntuación no solo supera al resto de modelos de IA que han participado en el benchmark, sino también a todos los aspirantes que han realizado esa prueba en procesos de selección de Anthropic. El nivel es alto.

Según un informe de SemiAnalysis, Claude Code ya “firma” el 4% del código que se sube a GitHub, el mayor repositorio de código del mundo. A este ritmo, podría representar más del 20% para finales de 2026.

02

Aprender copiando

La mejor manera de aprender a utilizar la tecnología es observar cómo la usan los demás. Aquí van algunos ejemplos de prompts que activan el vibe coding, incluso desde una idea muy inicial o difusa, y en cualquier herramienta conversacional con IA:

"Necesito una herramienta sencilla para que un equipo de comunicación pueda registrar ideas de campañas y trabajar y comentar sobre ellas. Me gustaría que tuviera una pantalla principal donde se vea una lista de ideas y se puedan añadir más desde un cajetín de texto, y alguna manera de priorizarlas y cambiar el orden. Con una columna de fechas. Que se puedan poner comentarios. Minimalista y fácil de entender y usar. Proponme cómo podría funcionar, qué pantallas tendría y crea una primera versión básica que luego podamos mejorar."
"Quiero algo parecido a un mini panel para un evento: una pantalla donde podamos ver los ponentes y su estado de confirmación, otra para gestionar la agenda y otra para las cuestiones logísticas como el espacio o el cátering. Proponme una primera versión sencilla y dime qué podría mejorarse después."

En ese primer pensamiento antes de lanzar el prompt debemos pensar que no estamos ejecutando, sino dirigiendo una solución.

  • Para quién es: qué tipo de perfiles lo van a usar y con qué expectativa.
  • Para qué sirve: qué problema resuelve y en qué mejora el trabajo.
  • Dónde se usa: una web, una app móvil, una aplicación de escritorio que se descarga.
  • Cómo debería funcionar: cuántos apartados hay en el menú inicial, si debe guardar datos
  • Qué es lo más importante: que sean cuatro pantallas separadas, que se puedan poner comentarios, que se pueda marcar algo como pendiente, en curso o descartado…

¿Qué resultado podemos esperar?

Lo primero que vamos a percibir es que el modelo tarda más tiempo de lo habitual en responder. Tras unos segundos, se lanzará a escribir líneas de código. Unos minutos después, cuando el código haya terminado, nos ofrecerá un botón de “Vista previa” en el que podremos visualizar nuestra aplicación, pero no solo como imagen: también podemos probarla e interactuar con ella.

En este punto hay que diferenciar entre dos escenarios:

  • Si no eres un perfil de desarrollo: el resultado impresiona por su rapidez, pero no está listo para ser productivo. Para ciertas tareas, como desplegarlo en un hosting, conectarlo con una base de datos, comprar un dominio y configurar las DNS, empieza a ser necesario un perfil de desarrollo o dedicar mucho tiempo a seguir las instrucciones que te ofrece la IA.
  • Si eres un perfil de desarrollo: en este punto el vibe coding puede servirte como herramienta para agilizar y mejorar la aplicación, detectar y corregir bugs o crear test unitarios. Y te habrá ayudado a recorrer mucho más rápido la primera parte del camino.
03

Suspenso en ciberseguridad

"Si un LLM escribió cada línea de tu código, pero tú lo has revisado, probado y entendido todo, eso no es vibe coding en mi opinión: eso es usar un LLM como asistente. El verdadero vibe coding adopta la mentalidad de no mirar el código, lo que es arriesgado."
Simon Willison.
Director de arquitectura de software en Eventbrite

Veracode, una compañía especializada en la gestión de riesgos en aplicaciones, publicó en su informe 2025 sobre la seguridad del código generado con IA una conclusión clara: el código generado por IA funciona, pero no es seguro en casi la mitad de los casos. El estudio analizó 80 tareas reales de ingeniería de software utilizando más de 100 modelos de lenguaje distintos y detectó vulnerabilidades de seguridad en el 45 % del código generado.

El patrón es preocupante: cuando los modelos tienen que elegir entre una forma segura y otra insegura de resolver un mismo problema, casi la mitad de las veces optan por la opción menos segura. Es llamativa la inconsistencia: a pesar de que los modelos han mejorado mucho escribiendo código que funciona desde el punto de vista técnico, su rendimiento en seguridad prácticamente no ha avanzado.

100
modelos de lenguaje
El foco de la IA no está en la ciberseguridad, por lo que la expansión del vibe coding acelerará dos cosas en los perfiles no técnicos: la creación de valor y la introducción de vulnerabilidades.
En perfiles técnicos y de desarrollo, en cambio, el escenario es diferente: el uso profesional de un LLM como asistente puede ayudarte a comprobar la seguridad de tu código y darte consejos para aplicar buenas prácticas. La condición es que tienes que saber cómo hacerlo.
04

Liderazgo con visión técnica

En el tiempo que dura una reunión ya es posible imaginar una idea, diseñar cómo funcionaría, prototiparla y ponerla a prueba ante los ojos de todos. Se instala la ilusión de que con muy poco esfuerzo y en muy poco tiempo se puede llevar un golpe de efecto al mercado. Incluso en el caso de no obtener un gran resultado, con la voluntad corporativa adecuada esta aceleración nos transforma en varios focos:

01

La carrera por parecer real

Perfil de un rostro humanoide con un diseño futurista de robot, mostrando detalles tecnológicos en la cabeza y oreja.

Campaña Heinz 2022

El 30 de noviembre de 2022, OpenAI lanzó ChatGPT. En solo cinco días, un millón de personas estaban hablando con una máquina que respondía con fluidez y coherencia. Lo que hasta entonces era materia de ciencia ficción se convirtió en tema de sobremesa.

Ese lanzamiento cambió algo más profundo que la relación con el lenguaje: la percepción del límite entre lo humano y lo sintético. Si una máquina podía escribir como nosotros, ¿por qué no iba también a ver como nosotros?

Mientras tanto, herramientas como Midjourney, DALL·E 2 o Stable Diffusion empezaban a circular en entornos creativos. En 2022, la marca Heinz lo entendió con su campaña AI Ketchup, en la que pedían a un generador de imágenes que dibujara la palabra “kétchup”. Casi todas las imágenes mostraban un bote de Heinz. Poco después, el estudio Private Island lanzó Synthetic Summer, un anuncio de cerveza creado íntegramente con IA.

Perfil de un rostro humanoide con un diseño futurista de robot, mostrando detalles tecnológicos en la cabeza y oreja.

Campaña Heinz 2022

Pasados tres años, el ecosistema se ha llenado de plataformas que compiten por lograr el parecido absoluto con la realidad. En esa carrera, la imagen deja de representar y pasa a simular. Lo que antes era un recurso estético, hoy es un estándar técnico.

Cuanto más perfecta la imitación, más borrosa la frontera entre documento y simulacro. Ya no preguntamos “¿es real?”, sino “¿qué se siente real?”. Y esa diferencia redefine toda la cultura visual contemporánea.