Dejá de testear hooks: por qué el testing top-down de creatividades es lo que realmente escala
By Zil Global
La mayoría de las marcas testea creatividades así: cambian el hook de un video y rezan. Esto es bottom-up testing y es la forma más ineficiente de encontrar ganadores.
Los media buyers que más escalan hacen lo contrario:
@williamkast_: "Validate the broad elements. Test different desires… biggest opportunity… top-down, every test builds on validated data."
Bottom-up vs Top-down testing
❌ Bottom-up (lo que hace la mayoría):
1. Tienen UN concepto creativo
2. Testean 10 variaciones de hooks
3. Testean 5 variaciones de CTA
4. Testean 3 thumbnails
5. Resultado: 150 variaciones de la misma idea
El problema: Si la idea base no resuena, 150 variaciones de hooks no la salvan. Es como poner 10 colores de pintura en una casa con los cimientos rotos.
✅ Top-down (lo que funciona):
1. Testear DESIRES (¿qué quiere la audiencia?)
→ "Quiero perder peso" vs "Quiero más energía" vs "Quiero verme bien"
2. Testear PERSONAS/ÁNGULOS (¿quién dice el mensaje?)
→ Fundador vs Doctor vs Usuario real vs Experto
3. Testear FORMATOS (¿cómo se entrega?)
→ UGC vs Static vs VSL vs Carousel
4. RECIÉN AHÍ testear hooks y detalles
→ Variaciones del GANADOR validado
Cada test construye sobre data validada. Cuando llegás al nivel de hooks, ya sabés qué desire funciona, con qué persona, en qué formato. Solo estás refinando un concepto que YA probó funcionar.
El framework en acción
Nivel 1: Desires (semana 1-2)
Creás 3-5 ads, cada uno hablando de un deseo diferente del mismo producto:
| Ad | Desire |
|---|---|
| A | "Dormí como hace años que no dormís" |
| B | "Más energía sin café ni estimulantes" |
| C | "Bajá la ansiedad sin pastillas" |
| D | "Despertate sin alarma, sintiéndote bien" |
Resultado: Desire B gana → la audiencia quiere energía, no sueño.
Nivel 2: Personas (semana 3-4)
Con el desire ganador (energía), testeás quién lo dice:
| Ad | Persona |
|---|---|
| A | Fundador/a contando su historia |
| B | Doctor explicando la ciencia |
| C | Usuaria real mostrando su rutina |
| D | Expert review estilo podcast |
Resultado: Persona C gana → los usuarios confían más en gente real.
Nivel 3: Formato (semana 5-6)
Con desire + persona validados:
| Ad | Formato |
|---|---|
| A | UGC video 30 seg |
| B | AI static con quote |
| C | Carousel antes/después |
| D | VSL largo con testimonial |
Nivel 4: Hooks y detalles (semana 7+)
RECIÉN ACÁ hacés variaciones de hooks del ad ganador.
El volumen necesario
@markbuildsbrand: "Launch 50 ads. Let 45 die… one winning VSL can run for a year."
El testing top-down requiere volumen de producción. No podés testear desires si solo producís 3 ads por mes. Los que escalan producen:
- 10-20 conceptos nuevos por semana para testing
- 5-10 variaciones del ganador para scaling
- Production cost bajo gracias a IA y UGC
@DtcMamun: "80% STATIC AI & 20% UGC" — el mix que permite producir volumen sin romper el presupuesto de producción.
El error más caro: ignorar el post-purchase
@caechet: "Brands… $50K testing creatives… but won't spend 3 hours fixing post-purchase flow."
El mejor creative testing del mundo no salva un funnel roto post-compra. Si tu email de confirmación es genérico, tu unboxing es mediocre, y tu flujo de reviews no existe, estás perdiendo LTV que podría financiar más ads.
Cómo Meraki opera creative testing top-down
Meraki estructura la producción creativa exactamente así:
- Brief de desires con el equipo de estrategia
- Batch de conceptos (AI statics + UGC) testean desires
- Iteración sobre ganadores con nuevos ángulos/formatos
- Scaling con variaciones del concepto validado
MarketWise maneja la estructuración en Meta: Testing → Scaling → Retargeting, con Bid/Cost Cap para los ganadores.
El sistema completo:
Meraki (creative strategy) + MarketWise (media) + Bigsur (brand)
= Testing top-down a escala con dirección de marca
Conocé el sistema de Zil Global.
¿Tu estrategia creativa es bottom-up y no escala? Hablemos de testing top-down.