A las 19:00 de la víspera de un cierre de adquisición, el abogado de la parte compradora envió una carta con exigencias de última hora: nuevas condiciones de escrow, ampliación de carve-outs en indemnizaciones y una lista revisada de entregables para el cierre. El mensaje implícito era el de siempre: o se acepta el cambio, o la operación se cae. En un despacho tradicional, esa escena suele activar el mismo protocolo: varios asociados revisando el contrato a contrarreloj, referencias cruzadas manuales y una madrugada de café.
Zack Shapiro, abogado estadounidense y socio de un pequeño bufete boutique de dos personas, cuenta que resolvió el núcleo del problema en menos de dos horas usando Claude, el modelo de Anthropic. Subió el acuerdo de compra, los disclosure schedules y la carta de demanda; en minutos obtuvo un mapa de cambios propuestos y, lo más importante, detectó contradicciones que, según su relato, el equipo contrario no había visto: algunos carve-outs chocaban con manifestaciones ya confirmadas en los anexos y otro introducía un conflicto interno que debilitaba incluso las propias protecciones del comprador. En su comparación, un equipo de tres asociados en un bufete mediano habría necesitado “hasta la mañana” para producir un análisis similar.
La escena es llamativa, pero el mensaje de fondo no es un eslogan sobre “abogados reemplazados”. Es un aviso sobre productividad: tiempo es dinero, y cada vez más organizaciones están descubriendo que automatizar ciertos procesos no significa delegar decisiones, sino acelerar la primera pasada y elevar el punto de partida del trabajo humano.
La clave no es “automatizar”, sino cerrar el flujo
Shapiro insiste en un matiz que suele perderse en el debate público: cuando se habla de automatización con Inteligencia Artificial, mucha gente imagina un piloto automático tomando decisiones por su cuenta. En un entorno legal, eso sería una receta para el desastre. Su enfoque, en cambio, se parece más a una “línea de producción” bien diseñada: se introduce un input concreto (documentos y contexto), se ejecuta un workflow definido y se obtiene un output estructurado en un formato acordado. Y entonces entra el “human in the loop”: el profesional revisa, corrige y aprueba.
En otras palabras, la Inteligencia Artificial no se presenta como juez, sino como motor. La responsabilidad —legal y reputacional— sigue recayendo en quien firma el trabajo, no en la herramienta.
Una suite, tres modos: Chat, Cowork y Code
El artículo de Shapiro llama la atención porque no se limita a usar un chatbot. Describe cómo aprovecha la “suite” de Claude en función del tipo de tarea:
- Chat: el modo conversacional para análisis, estrategia de negociación, primera lectura de cláusulas o borradores iniciales. Aquí el abogado mantiene el control paso a paso, como si trabajara con un asociado rápido sentado enfrente.
- Cowork: el modo autónomo, pensado para apuntar a una carpeta y delegar tareas completas: leer archivos, crear documentos, editar borradores y generar paquetes de cierre. En su descripción, es el modo que más cambia el día a día, porque transforma tareas largas en procesos paralelizables.
- Code: un modo “de desarrollo”, con acceso a terminal, que le permite construir herramientas a medida. Shapiro relata que, por una condición de salud que dificulta leer documentos largos, utilizó este modo para crear un sistema que convierte contratos y PDFs en audio, adaptando el lenguaje legal para que suene natural.
La elección del modo no es estética: es una forma de gobernar el riesgo. Cuanto más autonomía se otorga (Cowork), más importante se vuelve limitar el alcance, definir formatos y reforzar la revisión humana.
“Skills”: cuando el juicio profesional se convierte en un archivo reutilizable
El segundo elemento que explica el salto de productividad es el uso de skills, archivos de instrucciones persistentes que codifican marcos analíticos, tono, checklists y criterios de severidad. Shapiro sostiene que el valor real no está en una biblioteca de plantillas —que, en su opinión, es un commodity—, sino en el juicio: qué buscar, qué marcar, qué concesión aceptar y cuál pelear.
En su caso, cuenta que construyó seis skills “de producción” empaquetadas como un plugin para Cowork: revisión de contratos, edición con cambios controlados, redacción contractual, comunicaciones con clientes, investigación legal y redacción de políticas. El efecto empresarial es evidente: ese paquete puede instalarse en varios equipos y estandarizar el “primer borrador” según el criterio del profesional que lo diseñó.
La promesa (y el peligro): tocar Word “por dentro”
Uno de los fragmentos más comentados de su texto es el que apunta al trabajo invisible que consume horas: Word, formatos, numeración, estilos, cross-references y cambios controlados. Shapiro afirma que Claude puede abrir un .docx “a nivel XML” y aplicar marcas de Track Changes tal y como Word las espera, atribuyéndolas al autor correcto y respetando el formato. En su relato, eso permite producir redlines completos sin abrir aplicaciones externas, y dedicar el tiempo humano a la parte que sí es legal: el criterio.
Aquí se entiende su crítica a las herramientas legales “verticales”: muchas se quedan en el análisis conversacional de documentos; él defiende que un modelo de frontera capaz de escribir código puede además arreglar el documento y entregar el trabajo listo para enviar.
La capa de seguridad: investigación sin “alucinaciones” y verificación obligatoria
El texto también reconoce el elefante en la habitación: las alucinaciones. En derecho, un error no es un bug; puede ser una negligencia. Shapiro describe un enfoque de investigación que prioriza fuentes primarias (leyes, reglamentos, guías de agencias, jurisprudencia) y obliga al sistema a auto-revisarse antes de entregar el memo: comprobar que las citas dicen lo que se afirma, marcar incertidumbres y detectar contradicciones internas.
Esa filosofía se extiende a la relación con el cliente: cuenta que incorporó una cláusula de uso de Inteligencia Artificial en sus cartas de encargo, explicando que la herramienta mejora eficiencia y calidad, pero bajo supervisión de un abogado colegiado. También menciona opciones de privacidad de Anthropic orientadas a entornos profesionales, como acuerdos de retención cero en APIs elegibles.
Una conclusión que trasciende al sector legal
La consecuencia no es que la Inteligencia Artificial “haga abogados”. La consecuencia es que un equipo pequeño, con workflows cerrados y verificación humana, puede producir más y mejor en menos tiempo. Ese patrón —inputs delimitados, skills, formatos, revisión humana— es replicable en auditoría, compliance, consultoría o cualquier trabajo del conocimiento con documentos y procesos repetibles.
En 2026, el diferencial no es usar Inteligencia Artificial. El diferencial es gobernarla.
Preguntas frecuentes
¿Cómo se puede automatizar la revisión de contratos con Inteligencia Artificial sin asumir riesgos legales?
Definiendo un workflow cerrado: qué documentos se aportan, qué checklist se aplica, qué formato de salida se exige y quién revisa el resultado. La última aprobación debe ser siempre humana.
¿Qué diferencia hay entre usar Claude Chat y Claude Cowork en un despacho?
Chat es interacción paso a paso (ideal para análisis y borradores). Cowork introduce autonomía sobre carpetas y tareas completas, por lo que exige más control de alcance y una revisión final más estricta.
¿Cómo evitar “alucinaciones” en investigación jurídica con herramientas de IA?
Priorizando fuentes primarias, exigiendo verificación de cada cita y marcando niveles de confianza. Además, es clave revisar manualmente toda autoridad citada antes de enviar un informe al cliente.
¿Es seguro subir documentación sensible de clientes a un modelo de IA?
Depende del proveedor, del producto y de la configuración. En entornos profesionales, suele requerirse un análisis de privacidad, acuerdos de tratamiento de datos y opciones de retención adecuadas para minimizar exposición.



