/ lunes 18 de abril de 2022

Robots serán cada vez más creativos

Las nuevas generaciones de sistemas de aprendizaje están causando sensación con su increíble capacidad para generar trabajo creativo de toda índole

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Policiaca

Matan a motociclista en Ixtaczoquitlán, FGE investiga

Sobre el ataque se conoció que ocurrió esta mañana cuando el fallecido viajaba abordo de una motocicleta

Policiaca

Choca, vuelca y se desbarata tractocamión en Maltrata

El accidente ocurrió cuando el operador del vehículo descendía hacia Veracruz

Local

International Paper: confirman cierre de la empresa, ¿qué pasará con los empleados?

El asesor jurídico del sindicato de trabajadores de International Paper, Francisco Javier Herrera Ruiz, dijo que emprenderán acciones legales

Doble Vía

Día Mundial de Los Simpson: ¿Sabías que un orizabeño forma parte de la serie?

Mucho del éxito de Los Simpson viene también de los grandes talentos de los actores de doblaje, en especial de un destacado orizabeño que da vida a Homero

Local

PC a punto de mitigar incendio en paraje La Joya de Atlahuilco

PC del Estado de Veracruz, dio a conocer que alrededor de las 13:00 horas del miércoles 17 de abril se registró un incendio forestal en el Paraje La Joya

Local

Necesario tener Fiscalía Especializada en Violencia con Perspectiva de Género: Marea Verde

Luz María Reyes Huerta, integrante del Colectivo Marea Verde Altas Montañas dijo que hay "tortuguismo" en la Fiscalía General del Estado para atender casos de violencia de género