Technology

Pourquoi l’humanité est nécessaire pour propulser l’IA conversationnelle

Vous n’avez pas pu assister à Transform 2022 ? Découvrez dès maintenant toutes les sessions du sommet dans notre bibliothèque à la demande ! Regardez ici.


L’IA conversationnelle est un sous-ensemble de l’intelligence artificielle (IA) qui permet aux consommateurs d’interagir avec des applications informatiques comme s’ils interagissaient avec un autre humain. Selon Deloittele marché mondial de l’IA conversationnelle devrait croître de 22 % entre 2022 et 2025 et devrait atteindre 14 milliards de dollars d’ici 2025.

Offrant des personnalisations linguistiques améliorées pour répondre à un groupe très diversifié et vaste d’audiences hyper-locales, de nombreuses applications pratiques incluent les services financiers, les services hospitaliers et les conférences, et peuvent prendre la forme d’une application de traduction ou d’un chatbot. Selon Gartner, 70% des cols blancs interagissent prétendument régulièrement avec des plateformes de conversation, mais ce n’est qu’une goutte d’eau dans l’océan de ce qui peut se dérouler cette décennie.

Malgré le potentiel passionnant de l’espace de l’IA, il existe un obstacle important ; les données utilisées pour former les modèles d’IA conversationnelle ne tiennent pas suffisamment compte des subtilités du dialecte, de la langue, des modèles de parole et de l’inflexion.

Lors de l’utilisation d’une application de traduction, par exemple, un individu parlera dans sa langue source, et l’IA calculera cette langue source et la convertira dans la langue cible. Lorsque le locuteur source s’écarte d’un accent appris standardisé – par exemple, s’il parle avec un accent régional ou utilise un argot régional – le taux d’efficacité de la traduction en direct diminue. Non seulement cela offre une expérience médiocre, mais cela empêche également les utilisateurs d’interagir en temps réel, que ce soit avec leurs amis et leur famille ou dans un environnement professionnel.

événements

MetaBeat 2022

MetaBeat réunira des leaders d’opinion pour donner des conseils sur la façon dont la technologie métaverse transformera la façon dont toutes les industries communiquent et font des affaires le 4 octobre à San Francisco, en Californie.

Inscrivez-vous ici

Le besoin d’humanité dans l’IA

Afin d’éviter une baisse des taux d’efficacité, l’IA doit utiliser un ensemble de données diversifié. Par exemple, cela pourrait inclure d’avoir une représentation précise des locuteurs à travers le Royaume-Uni – à la fois au niveau régional et national – afin de fournir une meilleure traduction active et d’accélérer l’interaction entre les locuteurs de différentes langues et dialectes.

L’idée d’utiliser les données de formation dans les programmes ML est un concept simple, mais il est également fondamental pour le fonctionnement de ces technologies. Les données de formation fonctionnent dans une structure singulière d’apprentissage par renforcement et sont utilisées pour aider un programme à comprendre comment appliquer des technologies telles que les réseaux de neurones pour apprendre et produire des résultats sophistiqués. Plus le bassin de personnes interagissant avec cette technologie sur le back-end est large, par exemple, les locuteurs ayant des troubles de la parole ou des bégaiements, meilleure sera l’expérience de traduction qui en résultera.

Plus précisément dans l’espace de la traduction, en se concentrant sur comment un utilisateur parle plutôt que Quel dont ils parlent est la clé pour améliorer l’expérience de l’utilisateur final. Le côté sombre de l’apprentissage par renforcement a été illustré dans des nouvelles récentes avec Meta, qui a récemment été critiqué pour avoir un chatbot qui a craché des commentaires insensibles – qu’il a appris de l’interaction publique. Les données de formation doivent donc toujours avoir un human-in-the-loop (HITL), dans lequel un humain peut s’assurer que l’algorithme global est précis et adapté à l’objectif.

Prise en compte de la nature active de la conversation humaine

Bien sûr, l’interaction humaine est incroyablement nuancée et la création d’une conception conversationnelle de bot capable de naviguer dans sa complexité est un défi permanent. Cependant, une fois réalisée, une conception conversationnelle bien structurée et pleinement réalisée peut alléger la charge des équipes de service client, des applications de traduction et améliorer l’expérience client. Au-delà des dialectes et de l’argot régionaux, les données de formation doivent également tenir compte de la conversation active entre deux locuteurs ou plus interagissant les uns avec les autres. Le bot doit apprendre de ses schémas de parole, du temps nécessaire pour actualiser une interjection, de la pause entre les locuteurs, puis de la réponse.

Prioriser l’équilibre est également un excellent moyen de s’assurer que les conversations restent une expérience active pour l’utilisateur, et une façon de le faire consiste à éliminer les réponses sans issue. Pensez à cela comme si vous étiez dans un cadre d’improvisation, dans lequel les phrases “oui et” sont fondamentales. En d’autres termes, vous êtes censé accepter la construction du monde de votre partenaire tout en apportant un nouvel élément à la table. Les robots les plus efficaces fonctionnent de la même manière en formulant ouvertement des réponses qui encouragent des demandes supplémentaires. Offrir des options et des choix supplémentaires pertinents peut aider à garantir que tous les besoins des utilisateurs finaux sont satisfaits.

De nombreuses personnes ont du mal à se souvenir de longues chaînes de pensées ou prennent un peu plus de temps pour traiter leurs pensées. Pour cette raison, les applications de traduction feraient bien de laisser aux utilisateurs suffisamment de temps pour calculer leurs pensées avant de faire une pause à la fin d’une interjection. Former un bot à apprendre des mots de remplissage – y compris so, erm, well, um, ou like, en anglais par exemple – et les amener à associer un délai plus long à ces mots est un bon moyen de permettre aux utilisateurs de s’engager dans un plus réaliste conversations en temps réel. Offrir une programmation ciblée “d’intervention” (possibilités pour les utilisateurs d’interrompre le bot) est également un autre moyen de simuler plus précisément la nature active de la conversation.

Innovations futures dans l’IA conversationnelle

L’IA conversationnelle a encore du chemin à faire avant que tous les utilisateurs ne se sentent représentés avec précision. La prise en compte des subtilités du dialecte, le temps nécessaire aux locuteurs pour réfléchir, ainsi que la nature active d’une conversation seront essentiels pour propulser cette technologie vers l’avant. Plus précisément dans le domaine des applications de traduction, la prise en compte des pauses et des mots associés à la réflexion améliorera l’expérience de toutes les personnes impliquées et simulera une conversation plus naturelle et active.

Faire en sorte que les données soient tirées d’un ensemble de données plus large dans le processus back-end, par exemple en apprenant à la fois les inflexions anglaises RP et Geordie, évitera l’efficacité d’une traduction en raison de problèmes de traitement dus à l’accent. Ces innovations offrent un potentiel passionnant, et il est temps que les applications et les robots de traduction tiennent compte des subtilités linguistiques et des modèles de parole.

Martin Curtis est PDG de palabre

DataDecisionMakers

Bienvenue dans la communauté VentureBeat !

DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.

Si vous souhaitez en savoir plus sur les idées de pointe et les informations à jour, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.

Vous pourriez même envisager de rédiger votre propre article !

En savoir plus sur DataDecisionMakers

Leave a Reply

Your email address will not be published.