El procesamiento del lenguaje natural (PNL) está a la cabeza de la adopción reciente en inteligencia artificial. Según un estudio de IBM, un 42% de las empresas utilizan aplicaciones basadas en este tipo de tecnología y un 26% planean hacerlo en los próximos meses. Uno de los modelos más avanzados es GPT-3, del laboratorio de investigación OpenAI, que utiliza aprendizaje profundo para producir y completar textos que simulan la redacción humana. Es un sistema capaz de comprender, tomar el control de una conversación y ponerse en el papel de otra persona, como pudimos comprobar durante la grabación del primer episodio del podcast mensual Cuidado con las macros ocultas, que acaba de lanzar Cuatroochenta sobre tecnología para los negocios.
El primer episodio de Cuidado con las macros ocultas pone el foco en los modelos de inteligencia artificial como GPT-3, capaces de completar frases y asumir el rol de otra persona
Impacto de GPT-3
El desarrollo de low code es otro de los usos de la tecnología PNL con mayor repercusión para las organizaciones, según remarcan estos expertos durante el primer episodio del podcast de marca de Cuatroochenta. De hecho, Microsoft anunció el pasado mes de mayo la integración de GPT-3 en su plataforma Power Apps, para programar sin código o código bajo y permitir que perfiles de negocio desarrollen automatismos dentro de las empresas. Supone un cambio de paradigma en el desarrollo de software, elevando el rendimiento de tecnologías PNL.
Hoy por hoy, apunta Torrubia, solo conocemos “la punta del iceberg” de las oportunidades y aplicaciones reales que puede tener la inteligencia artificial. Advierte, además, que el PNL aún tiene muchas limitaciones y lo compara con el lenguaje que conoce un niño pequeño, a quien no confiaría, por ejemplo, la interpretación de una radiografía.
Ética en inteligencia artificial: los sesgos
Los sesgos son otro de los frenos a la hora de adoptar estos sistemas de forma comercial. Hay científicos que alertan de los riesgos de estos modelos, a los que han bautizado como “loros estocásticos”, que es como se llama a la teoría estadística de los procesos cuya evolución es aleatoria, como si fuera tirar los dados. Pero lo cierto es que investigadores y compañías de desarrollo trabajan para corregirlos. Open AI, por ejemplo, ha descubierto cómo mejorar el comportamiento de estos modelos lingüísticos, incluyendo nueve valores éticos, morales y sociales. El laboratorio lo ha llamado Proceso de Adaptación de Modelos Lingüísticos a la Sociedad (PALMS) y dice que consigue reducir la toxicidad.