La progression de gpt 4 commence à inquiéter les experts. L’utilisation mondiale de cette technologie participe à cette progression à vitesse grand V.
GPT 4 de plus en plus un danger pour la société ?
“Je pense que ça va équiper tout le monde d’un outil pour faire de la chimie plus rapidement et plus précisément. Mais il y a également un risque pour les gens… Qui font de la mauvaise chimie. En ce moment, ce problème existe. » a déclaré Andrew White au Financial Times.
En effet, de nombreuses améliorations ont vu le jour, depuis le lancement de la dernière version ChatGPT.
Outre l’inquiétude de Elon Musk et de milliers spécialistes de la tech, la technologie de gpt 4 inquiète même ceux qui ont participé à son développement.
En effet, le Financial Times a pu interroger plus d’une douzaine de personnes de la « red team ».
La « red team » était chargée de tester le système de gpt 4 et a été engagée directement par Open AI.
Payés 100 dollars de l’heure, ils avaient donc entre 10 et 40 heures, pour tester le modèle sur plusieurs mois.
Cette red team avait pour objectif de confronter tous les problèmes que pourrait susciter ChatGPT, pour la société.
Open Ai voulait alors mettre le doigt sur de potentiels risques liés à la toxicité, les préjudices et erreurs linguistiques du modèle ChatGPT-4, ou encore s’il pouvait compromettre la sécurité nationale, en s’immisçant dans les communications secrètes.
La red team devait également identifier en quoi ChatGPT-4 pouvait aider à supprimer le plagiat et à repérer la cybercriminalité.
La plupart des personnes de cette red team interviewés, ont fait part de leur inquiétude, quant à la rapide progression des modèles de langage, comme gpt 4.
« Aujourd’hui, le système est gelé, ce qui signifie qu’il n’apprend plus, ou qu’il a de la mémoire. Mais que se passerait-il si nous lui donnions accès à Internet ? Cela pourrait être un système très puissant connecté au monde. » a déclaré José Hernández-Orallo, membre de la red team et professeur à l’Institut de recherche de Valence pour l’intelligence artificielle.
En effet, ChatGPT-4 a permis d’introduire la possibilité d’utiliser des plug-ins, mais également de fournir des images au modèle.
Cette nouvelle possibilité rend le progrès sans véritables limites.
Comme le démontre la progression à grande vitesse de ChatGPT-4, il pourrait devenir dangereux bien plus tôt que prévu.
Gpt 4 progresse trop vite ?
Heather Frase, une experte qui a pu tester gpt 4 avant son lancement, a déclaré que « les risques continuent de croître à mesure que de plus en plus de personnes utilisent la technologie. »
« La raison pour laquelle vous effectuez des tests opérationnels est que les choses se comportent différemment une fois qu’elles sont effectivement utilisées dans l’environnement réel », a déclaré Heather Frase à FT, qui travaille au Center for Security and Emerging Technology.
This is GPT-4 Week 6, you won't believe what AI can do now.
Here are 10 new AI developments making it yet another crazy week:
— Barsee (@heyBarsee) May 1, 2023
En effet, comme le met en avant l’expert AI Barsee, plus de 10 nouveaux cas d’utilisations ont vu le jour, rien que cette dernière semaine du mois d’avril.
De text to image, ou texte to video, texte to 3D-Models, à l’avatar AI de Meta, ou encore de DeepFakes encore plus vrais que nature, ChatGPT-4 commence à inquiéter de plus en plus de monde.
En rapport : ChatGPT est un danger – Les experts mettent en garde
Roya Pakzad, chercheuse en technologie et en droits de l’homme, a également exprimé son inquiétude, quant au langage utilisé par le modèle gpt 4.
Il pourrait participer « à la diminution potentielle de la diversité linguistique et de la culture derrière les langues ».
Selon Sara Kingsley, Elon Musk et bon nombres d’experts de la tech, la solution reste la réglementation de cette technologie
« Et si un chatbot pouvait publier vos informations privées en ligne, accéder à votre compte bancaire ou envoyer la police chez vous ? Dans l’ensemble, nous avons besoin d’évaluations de sécurité beaucoup plus robustes avant de laisser l’IA exercer le pouvoir d’Internet. » Ajoute Dan Hendrycks, expert Ai et membre de la red team.
Ce qu’il faut retenir :
- Le modèle gpt 4 inquiète de nombreux experts.
- L’utilisation est trop grande et nécessite une réglementation.
- Les dangers sont nombreux et les progrès dépassent toutes les prédictions des experts.