ACTUALITES SUR L'INTELLIGENCE ARTIFICIELLE
Approches de la sécurité selon OpenAI (vie privée, contenus inappropriés...)
Cet article explique les efforts d'OpenAI pour rendre les systèmes d'IA plus sûrs et utiles. Avant de lancer un nouveau système, il est testé, amélioré et surveillé. Par exemple, GPT-4 a été optimisé pendant 6 mois avant sa sortie pour le rendre plus sûr. Selon OpenAI, GPT-4 est 40% plus précis que GPT-3.5 et il est meilleur pour bloquer les contenus inappropriés. L'utilisation réelle permet aussi d'améliorer les protections et les politiques de sécurité. Un accent particulier est mis sur la protection des enfants, en limitant l'utilisation de l'IA aux personnes de 18 ans et plus (ou 13 ans avec l'accord parental). Enfin, selon OpenAI la vie privée est respectée en supprimant les informations personnelles des données d'entraînement et en répondant aux demandes de suppression.
D'après un article publié le 5.4.2023 par OpenAI
Article complet en anglais sur: https://openai.com/blog/our-approach-to-ai-safety