La Inteligencia Artificial Generativa es una técnica de inteligencia artificial para crear imitaciones perfectas de imágenes u otros datos. Se puede entender que el contenido generado por IA puede consumir más material generado por IA.
Surge entonces la idea de que la Inteligencia Artificial va a tomar como modelo a la propia IA, replicando sus propias características, dejando de tomar características humanas.
Algunos expertos dicen que La Inteligencia Artificial que aprende del contenido generado por ella misma podría provocar el colapso del modelo y distorsiones en la realidad. Otros creen necesario que datos reales producidos por humanos sigan tomándose en cuenta para prevenir el colapso del modelo y garantizar la precisión de la IA.
🗨️ Empezamos la semana con una conversación entre dos de los investigadores más reconocidos en el campo de la IA (@AndrewYNg y @geoffreyhinton) sobre sus riesgos.
Sus conclusiones son:
– Los investigadores en IA tienen que llegar a un consenso sobre los riesgos de esta… https://t.co/k5CUUs1jiB— Instituto de Inteligencia Artificial (@iia_es) June 12, 2023
Si bien es cierto que la Inteligencia Artificial es utilizada en la actualidad para facilitar muchas funciones. También es considerada una usurpadora en muchos casos. Un tema que ha dividido a la población entre los que la ven como la evolución de la humanidad y los que la consideran una amenaza universal.
Te puede interesar: ¿La AI Podría Manipular tu Criptomoneda?
Estudian la IA en Reino Unido
En Reino Unido, un grupo conformado por varias Universidades ha realizado una investigación importante llamada: “La maldición de la recursividad”. “El entrenamiento en datos generados hace que los modelos se olviden”.
Investigadores de Cambridge, Oxford, la Universidad de Toronto y del Imperial College de Londres explican que el colapso ocurre cuando “los datos generados terminan contaminando el conjunto de entrenamiento de la próxima generación de modelos”.
Este grupo de investigadores ha emitido una advertencia sobre lo que llamaron “colapso del modelo”. Un proceso degenerativo que podría separar por completo la IA de la realidad.
Es decir, el contenido generado por la Inteligencia Artificial que se publica en línea podría ser absorbido de nuevo por los sistemas de IA. Creando irregularidades y distorsiones. Intentar copiar o clonar indefinidamente algo, podría llevar a más casos de colapso del modelo.
Definitivamente, los modelos de IA necesitan datos reales humanos, para comprender y simular con precisión nuestro mundo.