OpenAI dijo el martes que lanzará un conjunto de indicaciones que los desarrolladores pueden usar para hacer que sus aplicaciones sean más seguras para los adolescentes. El laboratorio de IA dijo que el conjunto de políticas de seguridad para adolescentes Se puede utilizar con su maniquí de seguridad de peso campechano conocido como gpt-oss-protección.
En división de trabajar desde cero para descubrir cómo hacer que la IA sea más segura para los adolescentes, los desarrolladores pueden utilizar estas indicaciones para proteger lo que construyen. Abordan temas como violencia gráfica y contenido sexual, ideales y comportamientos corporales dañinos, actividades y desafíos peligrosos, juegos de roles románticos o violentos y capital y servicios restringidos por vida.
Estas políticas de seguridad están diseñadas como indicaciones, lo que las hace fácilmente compatibles con otros modelos por otra parte de gpt-oss-safeguard, aunque probablemente sean más efectivas interiormente del propio ecosistema de OpenAI.
Para escribir estas indicaciones, OpenAI dijo que trabajó con los organismos de control de seguridad de la IA, Common Sense Media y Everyone.ai.
“Estas políticas basadas en avisos ayudan a establecer un firme de seguridad significativo en todo el ecosistema y, conveniente a que se publican como código campechano, pueden adaptarse y mejorarse con el tiempo”, dijo Robbie Torney, dirigente de IA y Evaluaciones Digitales de Common Sense Media, en un comunicado.
OpenAI señaló en su blog que los desarrolladores, incluidos los equipos experimentados, a menudo tienen dificultades para traducir los objetivos de seguridad en reglas operativas precisas.
“Esto puede provocar lagunas en la protección, una aplicación inconsistente o un filtrado demasiado amplio”, escribió la empresa. “Las políticas claras y perfectamente definidas son una pulvínulo fundamental para sistemas de seguridad eficaces”.
OpenAI admite que estas políticas no son una posibilidad a los complicados desafíos de la seguridad de la IA. Pero se pedestal en esfuerzos anteriores, incluidas salvaguardias a nivel de producto, como controles parentales y predicción de vida. El año pasado, OpenAI directrices actualizadas por sus grandes modelos de habla, conocidos como Especificaciones del modelo – para chocar cómo deberían comportarse sus modelos de IA con usuarios menores de 18 abriles.
Sin secuestro, OpenAI no tiene el historial más desinteresado. La empresa se enfrenta varios juicios presentado por las familias de personas que murieron por suicidio a posteriori del uso extremo de ChatGPT. Estas relaciones peligrosas a menudo se forman a posteriori de que el heredero eclipsa las salvaguardas del chatbot, y las barreras de seguridad de ningún maniquí son completamente impenetrables. Aún así, estas políticas son al menos un paso delante, especialmente porque pueden ayudar a los desarrolladores independientes.
