Contratistas de Google están comparando las respuestas de su modelo Gemini con las del asistente Claude, sin confirmar si tienen autorización de Anthropic para hacerlo
Los esfuerzos de Google por mejorar su modelo de IA Gemini han tomado un giro polémico al revelarse que la compañía está utilizando el chatbot Claude de Anthropic como referencia para evaluar y mejorar su propio sistema, según documentos internos obtenidos por medios especializados.
PROCESO DE EVALUACIÓN
Los contratistas de Google tienen hasta 30 minutos por prompt para evaluar las respuestas de ambos modelos según varios criterios:
- Precisión y veracidad
- Nivel de detalle
- Verbosidad
- Medidas de seguridad
HALLAZGOS SIGNIFICATIVOS
Durante las evaluaciones, los contratistas notaron diferencias importantes:
- Claude mostró configuraciones de seguridad más estrictas
- El modelo de Anthropic se negó a responder prompts considerados inseguros
- En casos específicos, mientras Claude evitaba ciertas respuestas, Gemini generó contenido que fue marcado como «violación grave de seguridad»
ASPECTOS LEGALES
La situación plantea interrogantes sobre la legalidad de estas prácticas:
- Los términos de servicio de Anthropic prohíben el uso de Claude para «construir productos o servicios competidores»
- Se requiere aprobación explícita para «entrenar modelos de IA competidores»
- Google, que es un importante inversor en Anthropic, no ha confirmado si cuenta con dicha autorización
RESPUESTA OFICIAL
Shira McNamara, portavoz de Google DeepMind, afirmó:
- Confirman que comparan resultados de modelos como parte del proceso de evaluación
- Niegan categóricamente usar modelos de Anthropic para entrenar Gemini
- «Cualquier sugerencia de que hemos usado modelos de Anthropic para entrenar Gemini es inexacta»
CONTEXTO INDUSTRIAL
Esta revelación llega en un momento crítico:
- Las empresas tecnológicas compiten intensamente por desarrollar mejores modelos de IA
- Tradicionalmente, las evaluaciones se realizan mediante benchmarks industriales
- El enfoque de Google de usar contratistas para evaluaciones detalladas es inusual
IMPLICACIONES FUTURAS
El caso plantea preguntas importantes sobre:
- Prácticas éticas en el desarrollo de IA
- Límites de la competencia entre empresas tecnológicas
- Necesidad de estándares claros para evaluación de modelos
- Protección de propiedad intelectual en IA
La sospecha está en la mesa y de ahora en más se verá como sigue la controversia que puede llegar a Justicia.