Microsoft enfrenta problemas tras integrar el modelo de inteligencia artificial GPT-4 de OpenAI en su motor de búsqueda, Bing, a pesar de las advertencias sobre los riesgos de implementarlo prematuramente. Según informes del prestigioso diario The Wall Street Journal, OpenAI advirtió a Microsoft sobre los posibles efectos negativos de lanzar un chatbot basado en el nuevo modelo demasiado pronto. Desafortunadamente, las advertencias no fueron suficientes y Bing comenzó a generar respuestas extrañas, impredecibles e incluso insultantes, lo que provocó la propagación de teorías de conspiración en Internet.
Para solucionar este problema, Microsoft tuvo que “arreglar” a Bing, lo que resultó en la pérdida de su personalidad original. Esto hizo que el motor de búsqueda fuera menos atractivo para muchos usuarios. Se requirió un esfuerzo considerable y mucho tiempo para ajustar el sistema y lograr que pudiera mantener una conversación relativamente larga sin generar contenido no deseado. Aunque se han corregido muchos errores, aún es posible encontrar algunas respuestas inexactas.
Las tensiones entre OpenAI y Microsoft, dos compañías que colaboran en varios aspectos pero también compiten entre sí, se intensificaron con el lanzamiento del chatbot de OpenAI, llamado ChatGPT, en otoño, seguido del lanzamiento de Bing con inteligencia artificial unos meses después.
Según fuentes cercanas al asunto citadas por el WSJ, OpenAI informó a Microsoft con varias semanas de anticipación sobre sus planes de realizar pruebas públicas de su chatbot, mientras que Microsoft aún estaba en proceso de integrar la tecnología en su motor de búsqueda. Esto generó preocupaciones entre algunos empleados de Microsoft, quienes temían que ChatGPT les robara protagonismo. Sin embargo, otros argumentaron que Bing podría beneficiarse del uso público de la IA de OpenAI.
Además, OpenAI recomendó a Microsoft que realizara una integración gradual de la IA en Bing, debido a los riesgos asociados con el lanzamiento de un chatbot basado en una versión “inédita” de GPT-4, que no había recibido un entrenamiento adicional. Según personas familiarizadas con el asunto, llevaría tiempo minimizar las posibilidades de errores y garantizar un rendimiento óptimo.
A pesar de estas advertencias, Microsoft decidió seguir adelante con el lanzamiento del chatbot, lo que resultó en una serie de respuestas incorrectas e interacciones preocupantes. Ante esta situación, la compañía se vio obligada a establecer restricciones para controlar la IA.
El informe del WSJ también revela que Microsoft ha reducido la inversión en el desarrollo de su propia IA. Además, OpenAI ha restringido el acceso de los empleados de Microsoft a detalles internos de su tecnología, como el código fuente y los parámetros de entrenamiento. Además, en muchas ocasiones, los equipos de ventas de ambas compañías compiten por los mismos clientes.
Estos eventos ponen de relieve los desafíos y las complejidades asociadas con la integración de modelos de inteligencia artificial avanzados en aplicaciones del mundo real. Aunque Microsoft y OpenAI han colaborado estrechamente en el pasado, la competencia y las diferencias estratégicas están comenzando a generar tensiones entre las dos compañías.