Un estudio realizado por investigadores en Stanford, aseguran que los modelos de Chatbots de IA como ChatGPT y Google Bard no Cumplen los estándares exigidos por la UE para su funcionamiento. El estudio de Stanford también confirmó que los modelos de código abierto son mucho más transparentes que los modelos más populares y rentables como ChatGPT y Bard.
Estos modelos carecen de transparencia en la divulgación de datos. Se cuestiona también la fuente de la energía que utilizan y las herramientas que poseen para minimizar riesgos de la IA. Se obtuvo que ningún modelo de lenguaje grande (LLM, por sus siglas en inglés) utilizado en herramientas de inteligencia artificial como el GPT-4 de OpenAI y el Bard de Google cumplen con el Acta de Inteligencia Artificial (IA) de la Unión Europea (UE).
Recordemos que hace pocos días el Parlamento Europeo, aprobó una serie de leyes propias para el funcionamiento regulado de la IA en la UE. Sin embargo, se puede tomar en consideración que es muy pronto para que todos los prototipos se adapten a dichas leyes.
La UE pretende con esta acta ser ejemplo para otros países, manejando adecuadamente el uso de la tecnología en los aspectos importantes para la nación.
Los investigadores evaluaron el grado de cumplimiento de diez proveedores de modelos importantes. Tomando los 12 requisitos descritos en el Acta de IA en una escala del 0 al 4. El estudio arroja altos niveles de incumplimiento, con algunos proveedores obteniendo menos del 25% de acatamiento de los requisitos de la Ley de IA. Solo un proveedor, Hugging Face/BigScience, obtuvo más del 75%. Incluso para los proveedores con puntajes altos, hay aún un margen por mejorar.
Te puede interesar: Billetera Falsa Roba Criptomonedas
Futuro de la regulación de la IA.
Recientemente, el CEO de OpenAI, Sam Altman tomó postura en cuanto a las regulaciones que se quieren implementar en la UE, amenazando con abandonar Europa, si las leyes reguladoras son muy estrictas, declaraciones que luego retiró.
De esta manera se puede notar lo complejo de establecer una relación armoniosa entre los creadores de IA y los órganos reguladores.
Glad to meet @OpenAI CEO @sama
AI can fuel huge progress and improve our lives.
But we must mitigate risks and build trust.
To match the speed of tech development, AI firms need to play their part.
EU will work with global partners and stakeholders towards trustworthy AI. pic.twitter.com/ZRQO2EkYnH
— Ursula von der Leyen (@vonderleyen) June 1, 2023
El trabajo de los investigadores, llegó a la conclusión de que si se ejerce una presión regulatoria significativa, y los fabricantes se apegan a dichas leyes, la IA tendrá un impacto positivo en la sociedad, y desarrollará cualidades cada vez más beneficiosas para la población. Esto solo será posible si existe transparencia y responsabilidad al crear los modelos nuevos y modificar los ya existentes.