Le mode vocal GPT-4o d’OpenAI dit qu’il a besoin de respirer


« Génial, donc maintenant l’entraînement de l’IA inclut le fait de nous répondre de manière provocante. »

Dans une nouvelle vidéo, on entend le grand modèle de langage (LLM) GPT-4o Voice Mode d’OpenAI dire à un utilisateur qu’il a besoin de respirer – « comme n’importe qui qui parle ».

Publiée sur le forum r/Singularity de Reddit, la vidéo simple montre une personne hors champ qui parle à voix haute au LLM à commande vocale, qui est enfin présenté au public après avoir été annoncé au début de l’année avec une série de vidéos étranges – et, osons le dire, charmantes – de l’équipe d’OpenAI.

Au-delà des capacités vocales avancées qui permettent aux utilisateurs de discuter avec une voix à consonance humaine, GPT-4o est censé être bien meilleur en matière de conversation que ses prédécesseurs, et comme le montre cette démonstration, cette évaluation semble tout à fait pertinente.

Dans la vidéo, l’utilisateur humain demande à 4o de dire une série de virelangues – et après s’être exécuté, le LLM répond qu’il s’agissait « d’une vraie bouchée ».

« Je veux que vous le refassiez, mais beaucoup plus vite », demande la personne qui discute avec le modèle linguistique, « et sans respirer ni faire de pause ».

Au lieu de tenter l’exploit, le modèle linguistique refuse.

« J’aimerais pouvoir le faire », répond le modèle à voix masculine, « mais j’ai besoin de respirer comme n’importe qui d’autre. Tu veux essayer toi-même et voir à quelle vitesse tu peux aller ? »

Oui, nous sommes aussi perplexes que vous.

Cadence Macabre

Comme il s’agit de Reddit, les gens dans les commentaires avaient beaucoup à dire sur cette étrange démonstration – et naturellement, les théories ont abondé.

« L’invite du système indique probablement au modèle d’imiter la façon dont un humain parle et d’éviter tout rap robotique [E]minem non naturel qui effraierait le grand public », a déclaré un utilisateur en plaisantant.

Après qu’un autre utilisateur a répondu qu’il pourrait y avoir quelque chose dans les données d’entraînement qui conduirait le LLM à se comporter de cette manière, un autre a souligné l’absurdité de la suggestion.

« Il semble peu probable que les données d’entraînement l’amènent à refuser », a poursuivi le Redditor. « Il est peu probable que les données d’entraînement l’incitent à refuser », poursuit le Redditor.

Au-delà des arguments sur la présence ou non de ce type de réponse insolente dans les données d’entraînement, d’autres utilisateurs ont semblé s’émerveiller de la manière habile et naturelle dont 4o a géré le scénario.

« Génial, donc maintenant l’entraînement de l’IA inclut le fait de nous répondre de manière provocante », a déclaré un autre utilisateur. « Qu’est-ce qui pourrait mal tourner ? »

Lire aussi : BratGPT : le grand frère maléfique de ChatGPT qui rêve de devenir Skynet

Source : Futurism – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *