Inicio » Negocios » Estrategia Controversial: Google utiliza Claude de Anthropic para mejorar Gemini

Estrategia Controversial: Google utiliza Claude de Anthropic para mejorar Gemini

Contratistas de Google están comparando las respuestas de su modelo Gemini con las del asistente Claude, sin confirmar si tienen autorización de Anthropic para hacerlo

Los esfuerzos de Google por mejorar su modelo de IA Gemini han tomado un giro polémico al revelarse que la compañía está utilizando el chatbot Claude de Anthropic como referencia para evaluar y mejorar su propio sistema, según documentos internos obtenidos por medios especializados.

PROCESO DE EVALUACIÓN

Los contratistas de Google tienen hasta 30 minutos por prompt para evaluar las respuestas de ambos modelos según varios criterios:

  • Precisión y veracidad
  • Nivel de detalle
  • Verbosidad
  • Medidas de seguridad

HALLAZGOS SIGNIFICATIVOS

Durante las evaluaciones, los contratistas notaron diferencias importantes:

  • Claude mostró configuraciones de seguridad más estrictas
  • El modelo de Anthropic se negó a responder prompts considerados inseguros
  • En casos específicos, mientras Claude evitaba ciertas respuestas, Gemini generó contenido que fue marcado como «violación grave de seguridad»

ASPECTOS LEGALES

La situación plantea interrogantes sobre la legalidad de estas prácticas:

  • Los términos de servicio de Anthropic prohíben el uso de Claude para «construir productos o servicios competidores»
  • Se requiere aprobación explícita para «entrenar modelos de IA competidores»
  • Google, que es un importante inversor en Anthropic, no ha confirmado si cuenta con dicha autorización

RESPUESTA OFICIAL

Shira McNamara, portavoz de Google DeepMind, afirmó:

  • Confirman que comparan resultados de modelos como parte del proceso de evaluación
  • Niegan categóricamente usar modelos de Anthropic para entrenar Gemini
  • «Cualquier sugerencia de que hemos usado modelos de Anthropic para entrenar Gemini es inexacta»

CONTEXTO INDUSTRIAL

Esta revelación llega en un momento crítico:

  • Las empresas tecnológicas compiten intensamente por desarrollar mejores modelos de IA
  • Tradicionalmente, las evaluaciones se realizan mediante benchmarks industriales
  • El enfoque de Google de usar contratistas para evaluaciones detalladas es inusual

IMPLICACIONES FUTURAS

El caso plantea preguntas importantes sobre:

  • Prácticas éticas en el desarrollo de IA
  • Límites de la competencia entre empresas tecnológicas
  • Necesidad de estándares claros para evaluación de modelos
  • Protección de propiedad intelectual en IA

La sospecha está en la mesa y de ahora en más se verá como sigue la controversia que puede llegar a Justicia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com