Los modelos de lenguaje grande (LLM) tienen el potencial de transformar el enfoque del análisis de datos y la toma de decisiones. Por lo tanto, es importante comprender las implicaciones a corto y mediano plazo de este nuevo desarrollo.
Una aplicación de vanguardia que aprovecha un gran modelo de lenguaje, ChatGPT revoluciona el pensamiento sobre datos y análisis. Sus capacidades avanzadas de procesamiento de lenguaje natural y aprendizaje automático (ML) ya lo han convertido en una herramienta valiosa para diversas industrias, desde finanzas y atención médica hasta educación y entretenimiento.
El desarrollo de ChatGPT está lejos de terminar. En el próximo año, se espera un rápido progreso en el desarrollo de ChatGPT y soluciones similares, así como la aparición de tecnologías complementarias.
limitaciones y riesgos
Como una aplicación basada en el modelo de lenguaje grande GPT, ChatGPT es ideal para tareas relacionadas con el lenguaje. Sin embargo, su capacidad para realizar operaciones matemáticas es más limitada. Es importante tener en cuenta que ChatGPT tiene limitaciones y no es adecuado para muchas tareas de análisis.
Muchos casos de uso de ChatGPT en datos y análisis serán para ayudar a los ingenieros de datos, analistas de datos y científicos de datos en tareas que involucran sistemas de programación y generación de código. Por ejemplo, un ingeniero de datos podría pedirle a un modelo de lenguaje que genere secuencias de comandos de transformación e ingesta de datos, plantillas de configuración y consultas SQL. Un analista de datos podría usarlo para ayudar a generar código DAX para PowerBI, mientras que un científico de datos podría usarlo para ayudar a validar el código Python para funciones relacionadas con el aprendizaje automático.
Sin embargo, con el uso anterior, existe el riesgo de que se filtre información sensible o confidencial a la empresa que crea el modelo. Por lo tanto, los profesionales de datos y análisis deben asegurarse de que el proveedor de servicios LLM maneje adecuadamente los materiales confidenciales o de propiedad exclusiva. Para ChatGPT sería OpenAI o Microsoft Azure OpenAI Services. Otro riesgo es que el código generado u otra salida no sea confiable. Por lo tanto, el uso de estas herramientas para extender los procesos del desarrollador es el enfoque recomendado.
Los profesionales de datos y análisis deben tomar la iniciativa en la comunicación de las políticas de riesgo y cumplimiento relacionadas con el uso de herramientas de IA generativa y servir como expertos en la materia para educar a las partes interesadas del negocio. Los profesionales deben aplicar el código de IA generado en fases y etiquetarlo y monitorearlo utilizando controles de calidad de código estándar o someterse a la misma revisión y revisión que el código escrito por humanos.
Política de uso responsable de contenido propietario
Para garantizar un uso seguro y adecuado de ChatGPT, debe establecer pautas para su uso, guiado por el equipo de entrega de datos y análisis. Esto incluye pruebas exhaustivas del código generado por parte de los desarrolladores, etiquetando el código generado como tal y sometiéndolo a los mismos procedimientos de prueba que el código normal. Esto permite a las organizaciones asegurarse de que ChatGPT se use de manera responsable y que todos los resultados sean confiables.
En los próximos años, se requerirá un enfoque más proactivo para implementar herramientas de IA generativa como ChatGPT. Esto incluye participar y liderar iniciativas para comprender el impacto de la IA generativa en los negocios y la sociedad en su conjunto. Los programas de alfabetización de datos deben educar a todos los empleados sobre cómo funcionan los sistemas de IA generativa, sus limitaciones y el alcance adecuado para su función. También se les debe alentar a pensar en los casos de uso y las formas en que se pueden aprovechar para respaldarlos mediante la expansión de algunas de sus tareas y la automatización de otras.
Además, para garantizar un uso seguro y efectivo de ChatGPT y sus competidores, es importante establecer pautas específicas para su uso. Esto incluye el asesoramiento de los funcionarios jurídicos para garantizar el cumplimiento de las normas y leyes.
Las políticas deben garantizar que los procesos estén siempre en su lugar con el bucle humano para verificar si hay errores y garantizar que el código o el resultado generado sea correcto y confiable. Al tomar estos pasos, las organizaciones pueden maximizar los beneficios potenciales de las herramientas de IA generativa mientras minimizan los riesgos asociados con su uso.
Bern Elliot es un distinguido vicepresidente analista de Gartner. El Gartner Data & Analytics Summit tendrá lugar del 22 al 24 de mayo de 2023 en Londres.