La protección de datos de conjuntos de entrenamiento de IA, la supervisión puntual de IA para garantizar que los empleados no divulguen datos confidenciales y la supervisión de salida para proteger secretos y propiedad intelectual son áreas en las que la seguridad y la gobernanza de datos pueden ayudar a la gobernanza de IA, dice Ron Reiter, CTO y cofundador de Sentra. “Al permitir a las organizaciones capacitar a diversos equipos, incluidos los roles de privacidad, gobernanza y cumplimiento, los profesionales pueden reforzar activamente la postura de seguridad de datos sin requerir capacitación especializada en ciberseguridad”.
Para las empresas del sector sanitario y otros sectores regulados, mejorar la calidad de los datos y definir los derechos de acceso son pasos fundamentales para cumplir las normas de rendimiento, privacidad y seguridad, afirma Sunil Venkataram, jefe de Producto de Wellframe, una empresa de HealthEdge. “Las organizaciones deben aprovechar las principales prácticas, herramientas y socios de confianza para la validación de datos, auditoría, monitoreo y presentación de informes, así como para detectar y mitigar posibles sesgos, errores o mal uso de los datos generados por IA”.
¿Qué copilotos y herramientas de IA pueden utilizar los empleados?
Una de las áreas clave que hay que abordar con los empleados es especificar qué herramientas de IA pueden utilizar en el flujo de trabajo, la investigación y la experimentación. Además de identificar las herramientas, una sólida política de gobernanza de IA debe especificar qué capacidades usar, qué funciones evitar, quién en la organización puede usarlas y qué procesos de negocio deben evitar el uso de IA.