Grover dijo que las organizaciones deberían aceptar que se producirán ataques de inyección rápidos y centrarse en condicionar el radiodifusión potencial de crisis en lado de intentar eliminar el peligro por completo. Dijo que esto requiere imponer privilegios mínimos para los sistemas de IA, condicionar el capacidad de los permisos de las herramientas, restringir el ataque a los datos predeterminados y validar cada actividad iniciada por la IA según las reglas comerciales y las políticas de sensibilidad.
“El objetivo no es hacer que el maniquí sea inmune al lengua, porque ningún maniquí lo es, sino asegurar que incluso si es manipulado, no pueda alcanzar silenciosamente a más datos de los que debería ni filtrar información a través de canales secundarios”, añadió Grover.
Varkey dijo que los líderes de seguridad todavía deberían repensar cómo ubican a los copilotos de IA interiormente de sus entornos, advirtiendo contra tratarlos como simples herramientas de búsqueda. “Aplicar los principios de Confianza Cero con barreras de seguridad sólidas: condicionar el ataque a los datos al leve privilegio, asegurar que el contenido que no sea de confianza no pueda convertirse en instrucción confiable y exigir aprobaciones para acciones de stop peligro como compartir, despachar o escribir nuevamente en los sistemas empresariales”, agregó.
