Índice del Contenido
En el marco del creciente uso de herramientas de inteligencia artificial (IA) en las organizaciones, como ChatGPT, expertos llaman a la precaución y al uso responsable de estas tecnologías, subrayando que, aunque pueden optimizar diversas tareas, no deben reemplazar completamente la intervención humana.
Carlos Pacheco, experto en IA de Matisi Consulting, destacó la necesidad de tomar en cuenta varios factores antes de integrar herramientas como ChatGPT en las actividades cotidianas de las empresas. "ChatGPT es un modelo predictivo de lenguaje que genera texto basado en patrones aprendidos, pero sus respuestas, aunque relevantes estadísticamente, no siempre serán las más correctas o precisas. Por eso, es vital que los usuarios verifiquen la información, sobre todo en temas complejos o sensibles", advirtió.
Preocupaciones en el uso de IA
Pacheco señaló algunas preocupaciones comunes sobre el empleo de estas tecnologías, entre ellas la filtración de información sensible, la precisión y veracidad de las respuestas y el uso no autorizado, especialmente en programación.
Respecto a la filtración de información sensible, Pacheco recordó un incidente ocurrido en marzo de 2023, cuando un error en ChatGPT expuso conversaciones de usuarios, incluidas estrategias comerciales y fragmentos de código propietario. "Es crucial que las organizaciones que manejan información sensible utilicen IA diseñada para proteger esos datos y que las infraestructuras sean adecuadamente controladas", afirmó.
Sobre la precisión y veracidad de la información, el experto señaló que herramientas como ChatGPT no siempre proporcionan respuestas correctas o contextualizadas, algo especialmente delicado en sectores como Derecho, Finanzas y Medicina, donde un error podría tener consecuencias graves. Recomendó a los usuarios verificar la información generada antes de tomar decisiones basadas en ella.
En cuanto al uso no autorizado y los riesgos en programación, Pacheco indicó que se ha reportado la divulgación de fragmentos de código confidencial al emplear IA en el desarrollo de software. Además, la IA puede generar soluciones incorrectas o con malas prácticas, comprometiendo la seguridad de las aplicaciones.
Recomendaciones para un uso seguro de la IA
Para evitar riesgos innecesarios, Pacheco enfatizó la importancia de capacitar tanto a empresas como a usuarios en el uso adecuado de la inteligencia artificial. Entre sus recomendaciones clave se encuentran:
- No compartir información sensible: Evitar subir datos confidenciales a plataformas de IA.
- Verificación de la información: Validar siempre las respuestas generadas y entender cómo fue entrenada la IA.
- Uso consciente de la IA: No delegar tareas que requieran juicio crítico o decisiones complejas a estas herramientas.
"En conclusión, ChatGPT y otras IA pueden ser aliadas poderosas en la automatización de tareas, pero su uso debe ser responsable y precavido para proteger la información sensible y garantizar resultados precisos", concluyó Pacheco.
Capacitación y seguridad, claves para un futuro con IA
El llamado a la capacitación y al uso consciente de la inteligencia artificial busca evitar errores y maximizar el potencial de estas tecnologías en las empresas, promoviendo una integración segura y efectiva que beneficie a las organizaciones sin comprometer su seguridad ni su capacidad de decisión.