OpenAI presenta la nueva versión de su modelo de lenguaje, GPT-4, que utiliza inteligencia artificial y que ahora también soporta imágenes además de aceptar entradas de texto. A pesar de que la compañía lo considera “menos capaz que los humanos en muchos escenarios del mundo real”, se trata de una IA más confiable, creativa y capaz de manejar instrucciones más matizadas que su predecesor, GPT-3.5.
GPT-4 supera “considerablemente” a los modelos de lenguaje existentes y a la mayoría de los modelos de última generación. Puede aceptar indicaciones de texto e imágenes, y al mismo tiempo, el usuario puede especificar cualquier tarea a realizar o el idioma a utilizar. Según la compañía, el modelo puede aceptar desde documentos con texto, fotografías, diagramas o hasta capturas de pantalla, mostrando un comportamiento similar al de las entradas de solo texto.
Sin embargo, OpenAI advierte que GPT-4 tiene limitaciones similares a los modelos GPT anteriores, y aún no es completamente confiable. La IA puede alucinar hechos y cometer errores de razonamiento, por lo que se necesita tener cuidado al utilizar los resultados del modelo en contextos de alto riesgo. En casos de requerir un protocolo exacto, se necesita de una revisión humana, contexto adicional o evitar su uso por completo.
La compañía también indica que GPT-4 presenta un sesgo en el conocimiento de eventos posteriores a septiembre de 2021 y no aprende de su experiencia, lo que lo hace susceptible a cometer errores de razonamiento simple o aceptar declaraciones falsas obvias de un usuario.
Para hacer a GPT-4 “más seguro y alineado”, se han realizado trabajos de selección y filtrado de datos previos, evaluaciones y participación de expertos en temas como alineación de IA, ciberseguridad, riesgo biológico, confianza y seguridad internacional. Aunque GPT-4 presenta riesgos similares a los modelos anteriores, la compañía se ha asegurado de que se pruebe de manera “adversaria” por más de 50 expertos para minimizar los riesgos y garantizar su confiabilidad.