Hace unos meses, The Guardian publicó un artículo bajo el titular ‘A robot wrote this entire article. Are you scared yet, human?’ Miedo, preocupación, prevención… un poquito. ¿Acaso no somos humanos?
Recientemente, hemos visto cómo se han lanzado al mercado varios modelos de inteligencia artificial (IA) capaces de crear imágenes y vídeos de cero o a partir de una frase que nos inventemos, o de generar textos a partir de contenidos preexistentes y unas instrucciones básicas.
Estas tecnologías proporcionan resultados impresionantes y suelen de ser fáciles de usar, aunque como en todo, las habilidades y experiencia sobre su uso, optimizan estos resultados.
Muchos creadores de contenido están expresando su descontento y su preocupación por cómo estas herramientas van a afectar a su trabajo.
Aunque el papel de la IA en el desarrollo de contenido ha avanzado mucho y más que lo hará, no nos van a sustituir las máquinas, así que TRANQUILIDAD.
Es evidente la potencialidad y los beneficios de la generación de contenidos con IA
Pero debemos comprender que las plataformas de IA son herramientas, no van a hacer el trabajo por nosotros, sino parte del trabajo y guiadas por nosotros.
¿Qué permite hacer?
Alta versatilidad, algunos ejemplos de utilidades actuales:
Y, también, muy próximamente.
Específicamente el ámbito de salud
El año arrancó con la noticia de que un equipo de investigadores médicos ha puesto a prueba a ChatGPT en el United States Medical Licensing Exam (USMLE), y la herramienta había aprobado los exámenes para ser médico, gracias a sus habilidades de gestión del conocimiento, razonamiento clínico, gestión médica y bioética.
Todos oímos hablar de esta noticia y generó controversia, está bien. Pero no todo es tan simple. Primero, las cosas claras, no es cierto que aprobara el examen, pues realizó solo una parte y no sacó tan buenas notas.
Otra noticia reciente indica que hay investigadores que confían tanto en las capacidades de ChatGPT que lo están incluyendo como coautor. En Nature, todavía están debatiendo los pros y los contras de permitir que figure como autor.
Más allá de esto que podríamos llamar anécdotas, hay una realidad que hay que afrontar y comprender. Partiendo de que el uso de estas herramientas en el ámbito de la salud es muy controvertido, hemos de considerar aspectos clave:
La calidad de la información de partida: Todos esos modelos se nutren de contenidos creados antes por otras personas; es decir, han sido entrenadas para hacer un trabajo partiendo de trabajos existentes, no se puede generar contenido desde cero.
La originalidad: como en cualquier ámbito, los generadores de contenidos solo procesan información recogida dentro de unos parámetros predefinidos. Aunque el contenido pasa comprobaciones de plagio, no incluye ideas o datos originales y a veces, escapa a los detectores.
La renovación de la información: sabemos que en el sector médico es necesario estar al día, conocer lo que se acaba de publicar, incluso lo que está por publicar. Hasta ahora, la información de partida de la IA es antigua. ¿Cómo se nutren estas bases de nueva información?, ¿cómo descartan la que queda obsoleta / superada? En otros ámbitos ya ha demostrado que si se intenta generar texto sobre temas de actualidad estos suelen estar desactualizados.
En nuestro sector, estas carencias en renovación de la información se detectan rápidamente en la forma en que se redacta y procesa la información.
Ya hay herramientas como Perplexity AI que utiliza internet para ofrecerte respuestas, lo que le permite estar al día y buscar respuestas en tiempo real, ¿cuándo llegará a nuestro sector?
La propiedad del contenido y su uso: si se parte de un contenido original, según la legalidad que nos protege, éste tiene usos muy concretos. En nuestro sector especialmente restrictivos. No estamos hablando solo del copyright de una imagen (que también es relevante).
Las herramientas de detección, en ocasiones no son capaces de detectar la autoría, pudiendo incurrirse en mal uso por la utilización de contenidos protegidos. Además, la Ley de Inteligencia Artificial va con retraso, lo que crea cierta inseguridad a las compañías para tomar decisiones.
La confidencialidad: las herramientas de IA se nutren de información de acceso público, pero en nuestro sector manejamos mucha información confidencial que no puede ni debe ser publicitada fuera de ámbitos muy concretos.
Se están empezando a plantear plataformas de IA con usos restringidos solo a los propietarios de la información o a determinadas personas autorizadas, pero aún es un campo a explorar en forma y modo.
Se abre otro gran debate cuando se habla de la interacción de estas herramientas con contenido proveniente de paciente, los aspectos de carácter ético, si bien los creadores de herramientas soportadas por IA dicen que no recopilan ninguna información personal identificable, ni información personal de salud, esta información, también, retroalimenta la herramienta.
El futuro de la generación de contenidos
ChatGPT de OpenAI superó el millón de usuarios en menos de una semana, a Spotify le costó 5 meses llegar a ese número. Pero recordemos que Pokémon Go alcanzó 50 millones de usuarios en solo 19 días, así que las cifras son atractivas, pero veamos cómo evolucionan.
La IA va a seguir avanzando y mejorando, pero hay en temas que la mente humana va a ser imprescindible:
Estamos fases iniciales de desarrollo y uso, aún se necesitan trabajar mucho en aspectos clave como la confianza en estos modelos, la transparencia, la validación, el análisis de sesgos, la actualización continua, la experiencia en el sector, por no hablar ética y políticas de propiedad intelectual y confidencialidad.
Hemos de sacar el máximo partido a los generadores de contenidos de IA, por ahora como herramienta de soporte, generando expectativas realistas y trabajando con aquellas herramientas de contenido de IA que tienen mayor potencial.
Desde Adelphi Targis, estaremos alertas a lo que está por venir y estudiando cómo vamos a continuar colaborando con estas herramientas de la mejor forma para nuestros clientes.
Publicado en La Inteligencia Artificial no esperará a que estemos preparados (pmfarma.com)
Un artículo de Esther Lantigua y Ana Fernández
C/ Aragó 182, planta 7
08011 Barcelona - Spain
+34 93 452 39 11
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.