Desarrollan software de avanzada para generación automática de textos
Un grupo de investigadores reveló esta semana que desarrolló un generador de texto automático utilizando inteligencia artificial con muy buenos resultados, pero que decidió no darlo a conocer por el momento por el peligro de que sea utilizado con fines maliciosos.
Un grupo de investigadores reveló esta semana que desarrolló un generador de texto automático utilizando inteligencia artificial con muy buenos resultados, pero que decidió no darlo a conocer por el momento por el peligro de que sea utilizado con fines maliciosos.
El software desarrollado por OpenAI podría ser usado para escribir noticias, reseñas de productos y otro tipo de textos que podrían ser más realistas que cualquiera otro producido antes por una computadora.
OpenAI, un centro de investigación que es financiado por Tesla, amazon y Microsoft, dijo que el nuevo software "logra un rendimiento de avanzada" en varios tipos de textos, como resúmenes o traducciones.
De todas formas, el centro indicó que no lanzará el programa al público. "No publicaremos el modelo entrenado debido a nuestra preocupación sobre la utilización maliciosa de la tecnología", señalaron los investigadores de OpenAI en una publicación de blog del jueves.
La novedad podría representar un hito en los intentos por desarrollar textos generados por computadoras que puedan ser creíbles, que a la vez son potencialmente peligrosos.
Los investigadores señalaron que hay muchas formas de utilizar el programa con fines perversos, entre ellos la generación de artículos de "fake news" (noticias falsas), hacerse pasar por otros en internet o para producir contenido falso en las redes sociales.
En un ejemplo se introdujo en el programa un párrafo en el que hablaba de "una manada de unicornios que vive en un remoto e inexplorado valle en los Andes" y escribió una noticia de 300 palabras sobre ello.
"El público en general deberá volverse más escéptico de los textos que encuentra online, como el fenómeno de los 'deepfakes' pide ser más escéptico sobre las imágenes", escribieron los investigadores, que se referían así a los videos manipulados por inteligencia artificial que han ido emergiendo en el último tiempo.
Además indicaron que su modelo, llamado GPT-2, "supera otros modelos de lenguaje" entrenados en tareas como entradas en Wikipedia, noticias o libros sin necesidad de un entrenamiento específico.
Le puede interesar:
Facebook podría pagar una multa de unos 2.000 millones de dólares
El cambio climático no solo sale caro por los huracanes