Google ha elevado el tono contra la Comisión Europea por una de las medidas más delicadas del Reglamento de Mercados Digitales: la obligación de compartir datos de búsqueda con terceros para favorecer la competencia. La compañía sostiene que la propuesta de Bruselas puede poner en riesgo la privacidad de los usuarios, incluso si los datos se entregan anonimizados.
El debate va mucho más allá de una disputa entre Google y sus rivales. Lo que está en juego es si la Unión Europea puede obligar a una plataforma dominante a abrir parte de sus datos sin crear una nueva fuente de riesgo para millones de personas. En una época en la que los asistentes de Inteligencia Artificial empiezan a competir con los buscadores tradicionales, la respuesta tendrá consecuencias para Google, OpenAI, Bing, DuckDuckGo y cualquier empresa que quiera construir servicios de búsqueda o respuesta sobre datos reales de comportamiento.
Qué quiere hacer la Unión Europea
La Comisión Europea propuso en abril una serie de medidas preliminares para que Google comparta con terceros datos de su buscador, como información de ranking, consultas, clics y visualizaciones. La base legal está en el Reglamento de Mercados Digitales, que impone obligaciones especiales a grandes plataformas consideradas “guardianes de acceso”.
La idea de Bruselas es sencilla sobre el papel: si Google domina el mercado de búsquedas, sus competidores necesitan acceder a datos que les permitan mejorar sus propios servicios. Un buscador, o un asistente de IA con funciones de búsqueda, aprende mucho de qué consulta el usuario, qué resultados se muestran, cuáles se abren y cómo se refina una búsqueda. Sin esa señal, competir contra Google resulta mucho más difícil.
La Comisión no plantea entregar datos sin filtros. Sus propuestas incluyen eliminar identificadores directos, como cuentas o direcciones IP, suprimir consultas largas o raras que puedan facilitar la identificación, generalizar metadatos de ubicación o dispositivo, limitar información de sesión, imponer cifrado, prohibir la reidentificación y evitar la combinación con bases de datos auxiliares. También contempla auditorías independientes y un periodo de retención de 13 meses.
Para Bruselas, este conjunto de salvaguardas permitiría equilibrar competencia y privacidad. Para Google, no basta.
La advertencia de Google: anonimizar ya no garantiza anonimato
Sergei Vassilvitskii, científico distinguido de Google y experto en privacidad diferencial, ha enviado una advertencia a los reguladores europeos. Según su posición, las técnicas modernas de análisis e Inteligencia Artificial pueden cruzar patrones aparentemente anónimos hasta reconstruir identidades concretas. El dato más llamativo es una prueba interna de la compañía: el equipo de Red Team de IA de Google habría logrado reidentificar usuarios en menos de dos horas a partir de datos anonimizados.
La afirmación es potente porque cambia el centro del debate. El problema no sería solo si Google quiere o no compartir datos con competidores, sino si los mecanismos propuestos por la Comisión son técnicamente suficientes en 2026. Una consulta aislada puede parecer anónima. Un conjunto de consultas, clics, horarios, idioma, ubicación aproximada, dispositivo y patrones de navegación puede contar una historia mucho más precisa.
Las búsquedas son una de las huellas digitales más sensibles que genera una persona. En ellas puede aparecer información sobre salud, trabajo, dinero, creencias, relaciones, dudas legales, problemas personales o intereses políticos. Aunque se eliminen nombres, cuentas e IP, ciertos patrones pueden ser únicos. Una búsqueda rara, combinada con una ubicación aproximada y una secuencia de clics, puede acercar mucho más de lo que parece a una persona real.
Google tiene interés comercial en defender esta postura. Sus rivales lo recuerdan desde hace tiempo. Pero que el argumento beneficie a Google no significa que el riesgo sea inexistente. La historia de la privacidad digital está llena de ejemplos en los que datos supuestamente anonimizados acabaron siendo reidentificables al cruzarse con otras fuentes.
Competencia, IA y una nueva batalla por los datos
La disputa llega en un momento especialmente sensible. La búsqueda en Internet ya no se limita a una caja de texto con diez enlaces azules. Los usuarios empiezan a consultar a chatbots, asistentes de IA, navegadores con respuestas generadas y sistemas que combinan información web con razonamiento. En ese mercado, los datos de búsqueda son una materia prima muy valiosa.
La Comisión quiere que terceros puedan acceder a esos datos si cumplen la definición aplicable de motor de búsqueda online. Esto podría incluir servicios tradicionales, pero también nuevas herramientas de IA que funcionen como puerta de entrada a la información. Reuters ha mencionado a OpenAI entre los posibles beneficiarios del acceso a datos, aunque el alcance final dependerá de cómo se definan las condiciones.
Los competidores de Google llevan años acusando a la compañía de invocar la privacidad para proteger su posición dominante. DuckDuckGo, por ejemplo, pidió en 2024 nuevas investigaciones europeas sobre el cumplimiento de Google con el DMA y criticó que la propuesta de licenciar datos de búsqueda anonimizados era demasiado restrictiva y poco útil para competir. Desde esa óptica, Google estaría ofreciendo datos tan filtrados que no servirían realmente para mejorar servicios alternativos.
Google responde que no puede comprometer la confianza de los usuarios ni entregar información que pueda convertirse en un mapa de comportamiento personal. El choque es difícil de resolver porque ambas posiciones tienen parte de razón. Sin acceso a datos, la competencia se debilita. Con demasiado acceso a datos, la privacidad puede quedar expuesta.
El problema de fondo: regular datos sensibles en la era de la IA
El caso muestra una tensión cada vez más habitual en Europa. La Unión Europea quiere abrir mercados digitales concentrados, limitar abusos de grandes plataformas y permitir que nuevos actores compitan en mejores condiciones. Pero muchos de los datos que dan ventaja a esas plataformas son precisamente los más sensibles.
Antes, anonimizar podía parecer una solución razonable. Hoy resulta menos claro. Los modelos de IA, las técnicas estadísticas avanzadas y la disponibilidad de bases de datos auxiliares hacen que la frontera entre dato anónimo y dato reidentificable sea mucho más frágil. Una regulación pensada para compartir información debe asumir que los atacantes, o incluso competidores con incentivos comerciales fuertes, tendrán herramientas cada vez mejores para encontrar patrones.
La Comisión intenta reducir ese riesgo con límites, auditorías y prohibiciones. La pregunta es si esos mecanismos serán suficientes y, sobre todo, quién responderá si no lo son. Si un tercero recibe datos de búsqueda anonimizados y logra vincularlos a personas concretas, el daño para el usuario puede ser difícil de reparar. Y si los datos se filtran, el problema ya no sería solo de competencia, sino de seguridad y derechos fundamentales.
También hay una cuestión práctica. Cuanto más se protegen los datos, menos útiles pueden resultar para competir. Si se eliminan consultas raras, se agregan metadatos, se reduce la información de sesión y se impide cruzar fuentes, el dataset puede perder buena parte de su valor. Si se entregan datos más ricos, el riesgo aumenta. Ese equilibrio es el verdadero núcleo del conflicto.
La decisión final de Bruselas será observada con atención por toda la industria. Si la Comisión mantiene una obligación amplia, Google probablemente intensificará su defensa técnica y legal. Si reduce mucho el alcance, los rivales dirán que el DMA se queda corto justo cuando la IA está redefiniendo el acceso a la información.
La privacidad de las búsquedas no debería convertirse en una excusa automática para blindar monopolios, pero tampoco en un daño colateral de la competencia. La Unión Europea tiene razón al querer abrir mercados digitales cerrados. Google tiene razón al advertir que los datos de búsqueda son extremadamente sensibles. El reto está en no resolver un problema creando otro mayor.
Preguntas frecuentes
¿Qué quiere obligar la Unión Europea a hacer a Google?
La Comisión Europea propone que Google comparta con terceros datos de su buscador, como consultas, rankings, clics y visualizaciones, bajo condiciones justas, razonables y no discriminatorias.
¿Por qué Google dice que esto puede afectar a la privacidad?
Google sostiene que, aunque se eliminen identificadores directos, los patrones de búsqueda pueden permitir reidentificar usuarios al cruzarse con otros datos y técnicas modernas de IA.
¿Qué datos de búsqueda pueden ser sensibles?
Las búsquedas pueden revelar información sobre salud, finanzas, ubicación, trabajo, creencias, problemas legales, intereses personales o situación familiar. Por eso incluso datos anonimizados pueden ser delicados.
¿Quién podría beneficiarse de estos datos?
Buscadores rivales y servicios de IA con funciones de búsqueda podrían usar esos datos para mejorar resultados, entrenar sistemas y competir mejor frente a Google, siempre que cumplan las condiciones que fije Bruselas.



