El streaming: La revolución silenciosa de la televisión
El streaming transforma la TV: flexibilidad, variedad y calidad. Cambia hábitos sociales y publicitarios, desafiando los medios tradicionales.
Fecha de publicación: 30/08/2023
En la era digital actual, la inteligencia artificial (IA) se ha convertido en una fuerza dominante en muchos sectores, desde la medicina hasta las telecomunicaciones. En este ámbito, la inteligencia artificial generativa ha emergido como una de las ramas más prometedoras e intrigantes.
Esta tecnología, que combina algoritmos avanzados con enormes conjuntos de datos, tiene la capacidad única de crear contenido nuevo, como textos, imágenes o música, basándose en la información que ha aprendido de datos preexistentes.
La capacidad de la IA generativa es la de producir contenido que parece tan real que incluso puede parecer pura magia o ciencia ficción. Imagina un sistema que pueda escribir un poema, diseñar una imagen o componer una melodía desde cero, todo esto sin intervención humana directa. Sin embargo, como con cualquier tecnología, no se trata de magia, sino de matemáticas, algoritmos y programación avanzada.
No obstante, a pesar de su gran potencial, la IA generativa no está exenta de desafíos y limitaciones. Como cualquier herramienta, su eficacia depende en gran medida de la calidad de los datos con los que se entrena. Además, existen preocupaciones éticas y prácticas sobre cómo se pueden utilizar (o mal utilizar) las creaciones generadas por esta tecnología.
La inteligencia artificial ha revolucionado la forma en que interactuamos con la tecnología y cómo esta comprende y procesa la información. Su propósito es imitar las funciones cognitivas humanas, como el razonamiento, el aprendizaje, la planificación y la percepción. Dentro de este amplio espectro de la IA, el aprendizaje automático (Machine Learning o ML por sus siglas en inglés) ocupa un lugar destacado como una de sus ramas más prometedoras.
El ML es una metodología que permite a las computadoras aprender directamente de los datos, sin estar programadas explícitamente para una tarea específica. En lugar de seguir instrucciones concretas, un modelo de ML "aprende" de los datos y hace predicciones o decisiones basadas en este aprendizaje.
El aprendizaje automático es tan bueno como lo sean los datos con los que trabaja. La recopilación y el preprocesamiento de datos son fases cruciales y a menudo las más laboriosas. Los datos de mala calidad pueden llevar a conclusiones incorrectas o modelos ineficientes. Por lo tanto, es fundamental dedicar tiempo y recursos para asegurarse de que los datos sean representativos, completos y estén libres de errores.
En resumen, el aprendizaje automático es una herramienta poderosa que permite a las computadoras aprender de los datos y mejorar con el tiempo. Con una preparación y gestión adecuadas de los datos, los modelos de ML pueden ayudar a resolver problemas complejos y proporcionar soluciones innovadoras en diversos campos.
Los modelos discriminativos son aquellos que aprenden a diferenciar entre categorías o grupos basándose en los datos de entrenamiento que se les proporcionan. Su principal función es clasificar datos nuevos basándose en estas diferencias que han aprendido. Por ejemplo, si tenemos todos los mensajes en tiempo real de un canal de Twitter o Twitch, podemos clasificar los mensajes que reciben los usuarios según si son tóxicos, obscenos o un ataque.
Un ejemplo real de este tipo de IA lo puedes ver en: https://twitch-chat-toxicity.vercel.app/, donde al poner tu streamer favorito, la IA irá clasificando en tiempo real mensajes. Este modelo, por ejemplo, tiene la limitación de que solo ha sido entrenado en un conjunto de datos de mensajes en inglés, por lo que solo hace su "trabajo" bien en inglés. (para los más curiosos, también comparto el código de la aplicación https://github.com/ericrisco/twitch-chat-toxicity).
Los modelos generativos, en cambio, no solo aprenden a diferenciar entre categorías, sino que también aprenden sobre la estructura subyacente de los datos de entrenamiento. Esta capacidad les permite no solo clasificar, sino también generar datos nuevos que se asemejen a los de entrenamiento.
Por ejemplo, la siguiente imagen se ha generado utilizando Stable Diffusion XL, un modelo de código abierto de generación de imágenes:
Este modelo ha sido entrenado con imágenes de Andorra y se le ha pedido que genere imágenes de paisajes urbanos en el año 2050 de Andorra.
Los modelos generativos han sido una parte integral del campo de la inteligencia artificial durante mucho tiempo. Sin embargo, en los últimos años, hemos visto un aumento significativo en su aplicación y desarrollo, gracias a la aparición de modelos avanzados como VAE, GAN y GPT. Esta tendencia creciente se refleja en el hecho de que las startups centradas en la IA generativa han recaudado más de 17.000 millones de dólares.
Un ejemplo destacado de esta tecnología es ChatGPT. Esta herramienta, desarrollada por OpenAI, es una interfaz gráfica de un modelo generativo conocido como GPT. La versión gratuita de esta herramienta utiliza GPT-3.5-Turbo, mientras que la versión Premium utiliza GPT-4, que tiene una capacidad mucho mayor para crear contenido. Pero eso no es todo. OpenAI ha ido más allá con la versión premium de ChatGPT, ofreciendo la posibilidad de agregar plug-ins.
Un plug-in de ChatGPT es una herramienta que amplía las capacidades del modelo ChatGPT, permitiéndole interactuar con sistemas externos y proporcionar servicios más específicos, en tiempo real e interactivos. Es como si le diéramos a ChatGPT un conjunto adicional de habilidades para ayudarnos.
Por ejemplo, podemos encontrar complementos que nos permiten leer el contenido de un PDF y resumirlo, analizar el contenido de una página web y crear un artículo a partir de su contenido, entre otros.
Otro ejemplo de esta capacidad ampliada es el plug-in de Andorra, que integra ChatGPT con varios portales de Andorra, proporcionando información en tiempo real e investigación en diversas áreas. Al agregar este plug-in a ChatGPT, podrás hacer preguntas como:
"Estoy buscando un apartamento en alquiler de 3 habitaciones en La Massana"
"¿Cuál es la gasolinera más barata en Sant Julià de Lòria?
"¿Puedes resumir las noticias más relevantes del fin de semana?"
Aquí encontrarás más información sobre el plug-in y cómo usarlo: https://medium.com/@erisco_and/introducing-the-new-andorra-plugin-powered-by-chatgpt-and-its-integration-with-windows-copilot-c44fb334c0f6.
Uno de los principales riesgos asociados con la IA generativa es la privacidad de los datos. A medida que estos modelos se entrenan con enormes conjuntos de datos, existe una preocupación legítima sobre cómo se recopilan, almacenan y utilizan estos datos. Por ejemplo, si un modelo de IA generativa se entrena con datos personales sin el consentimiento adecuado, puede acabar produciendo resultados que revelen información sensible sobre individuos concretos. Además, con la creciente capacidad de la IA para crear deepfakes (imágenes o videos manipulados que parecen reales), se pueden generar contenidos engañosos que podrían ser utilizados con intenciones maliciosas.
Además, está la cuestión de la exactitud de los modelos. Aunque la IA generativa puede producir resultados impresionantes, no siempre son precisos o confiables. Esto puede ser particularmente problemático en áreas como la investigación médica o la producción de noticias, donde la precisión es crucial. Si se confía ciegamente en la IA para producir resultados sin una revisión humana adecuada, se pueden tomar decisiones basadas en información incorrecta.
Finalmente, existen preocupaciones éticas sobre el uso de la IA generativa. A medida que esta tecnología se vuelve más accesible, hay un riesgo real de que se utilice de manera no ética. Ya hemos visto ejemplos de esto con la creación de contenido pornográfico deepfake sin el consentimiento de las personas involucradas. Además, con la capacidad de clonar voces, existen preocupaciones sobre el uso de esta tecnología para estafas u otras actividades ilegales.
Ante estos riesgos y limitaciones, es esencial que haya una regulación y supervisión adecuadas de la IA generativa. Las empresas e investigadores que trabajan en este campo deben ser conscientes de sus responsabilidades éticas y asegurarse de que la tecnología se desarrolle y utilice de manera responsable. Además, los consumidores deben ser educados sobre los posibles riesgos asociados con la IA generativa y cómo pueden protegerse.
La inteligencia artificial generativa, sin duda, ha revolucionado la forma en que interactuamos con la tecnología y cómo esta crea contenido nuevo. Con su capacidad para imitar patrones humanos y producir resultados que a menudo son indistinguibles de los creados por humanos, la IA generativa ha abierto un mundo de posibilidades en campos como la creación de contenido, el diseño, la música y más.
Sin embargo, como con cualquier tecnología poderosa, viene con sus desafíos. Las preocupaciones éticas están en la vanguardia. La capacidad de una máquina para crear contenido que puede ser indistinguible de lo real puede tener repercusiones en áreas como la privacidad, la seguridad y la veracidad de la información. Por ejemplo, la creación de videos deepfake o la generación de noticias falsas pueden tener graves consecuencias en la sociedad.
Además, mientras que la IA generativa puede ser una herramienta útil, también puede ser un arma de doble filo. Los usuarios deben ser conscientes no solo de lo que la tecnología puede hacer, sino también de lo que deberían hacer con ella. La responsabilidad recae tanto en los desarrolladores como en los usuarios para asegurarse de que la tecnología se use de manera ética y responsable.
Èric Risco, Experto en Desarrollo e inteligencia artificial en Andorra Telecom.