- L’OpenAI suspend un outil utilisé pour différencier les textes créés par l’homme de ceux créés par l’IA en raison de ses performances insuffisantes.
- L’entreprise se concentre désormais sur l’amélioration du processus de vérification de l’authenticité du contenu.
- Dans le cadre d’une enquête de la Federal Trade Commission, le responsable de la confiance et de la sécurité d’OpenAI a récemment démissionné.
OpenAI a pris la décision délibérée de suspendre un utilitaire créé pour différencier les écrits composés par l’homme de ceux composés par l’IA, citant les performances insuffisantes de l’outil comme étant la principale préoccupation. Comme indiqué dans un récent billet de blog, la désactivation du classificateur d’IA prendra effet le 20 juillet. L’entreprise s’est engagée à affiner le processus de vérification de l’authenticité du contenu, en concentrant ses efforts sur l’amélioration de l’intégration du retour d’information et sur la recherche approfondie de techniques de vérification plus efficaces.
“À compter du 20 juillet 2023, le classificateur d’IA n’est plus disponible en raison de son faible taux de précision. Nous nous efforçons d’intégrer le retour d’information et recherchons actuellement des techniques de provenance plus efficaces pour le texte, et nous nous sommes engagés à développer et à déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l’IA.”
-OpenAI
OpenAI abandonne le classificateur de texte d’IA
Afin de s’adapter à l’évolution du paysage, l’OpenAI a déclaré son intention de se concentrer sur le développement de nouvelles stratégies visant à permettre aux utilisateurs de distinguer les contenus audio et visuels générés par l’IA. Les spécificités de ces stratégies, qui n’ont pas encore été dévoilées, sont entourées de secret, ce qui ne fait qu’attiser l’impatience.
L’entreprise technologique a franchement admis les lacunes persistantes du classificateur en matière de détection précise des textes créés par l’IA, ce qui soulève des inquiétudes quant à d’éventuels faux positifs. Dans ce cas, l’outil pourrait identifier à tort des textes rédigés par des humains comme étant générés par des machines, ce qui créerait une confusion injustifiée. Cette révélation a accompagné l’annonce de la désactivation temporaire de l’outil. Il est intéressant de noter qu’avant cette mise à jour surprenante, l’entreprise avait gardé espoir en ce qui concerne le classificateur, estimant qu’il pourrait évoluer avec la collecte de données supplémentaires.
Depuis son introduction spectaculaire, le ChatGPT d’OpenAI a rapidement fait des adeptes, ce qui a suscité la curiosité de nombreuses personnes quant au fonctionnement interne de cet outil révolutionnaire. Une vague d’appréhension de la part des éducateurs concernant l’impact du texte et de l’art produits par l’IA sur divers secteurs a sonné l’alarme. On craint de plus en plus que les élèves ne s’appuient sur le ChatGPT pour réaliser leurs travaux scolaires, ce qui risquerait de compromettre leur engagement dans les méthodes d’apprentissage conventionnelles. Pour tenter de répondre aux inquiétudes concernant la précision, la sécurité et la malhonnêteté scolaire, des écoles new-yorkaises ont décidé de bloquer l’accès à ChatGPT au sein de leur établissement.
Alors que l’IA continue à se généraliser, la propagation de fausses informations par le biais de textes générés par l’IA devient une préoccupation majeure. Des recherches récentes révèlent que les contenus textuels créés par l’IA, tels que les tweets, ont tendance à être plus persuasifs que leurs équivalents rédigés par des humains. Les gouvernements du monde entier sont confrontés à la tâche complexe de formuler des réglementations efficaces en matière d’IA. Dans l’intervalle, les entités et organisations individuelles doivent assumer le fardeau de la création de règles et de mesures de protection contre le déferlement de textes générés par ordinateur.
Il semble qu’il n’y ait pas encore de solutions claires pour relever les défis posés par l’expansion rapide de l’espace de l’IA générative, y compris de la part d’OpenAI elle-même, une entreprise qui a joué un rôle déterminant dans l’émergence de cette tendance. À mesure que la frontière entre les contenus générés par l’homme et ceux créés par l’IA devient plus floue, la tâche de différenciation devient de plus en plus difficile, malgré des succès occasionnels en matière de détection.
OpenAI a également vu récemment le départ de son responsable de la confiance et de la sécurité dans le cadre d’une enquête de la Federal Trade Commission (FTC) sur les pratiques de filtrage des données et des informations de l’entreprise. Pour l’instant, OpenAI a choisi de rester silencieuse sur la question, choisissant de ne pas élaborer au-delà de ce qui a déjà été partagé dans son billet de blog.