Principal Innovation Google AI permet désormais aux utilisateurs de traduire instantanément du texte dans 27 langues avec des caméras de téléphone

Google AI permet désormais aux utilisateurs de traduire instantanément du texte dans 27 langues avec des caméras de téléphone

Quel Film Voir?
 
(Gif : Google)

(Gif : Google)



Grâce à l'intelligence artificielle, voyager à l'étranger n'a jamais été aussi simple.

L'application Google Translate permet aux utilisateurs de traduire du texte instantanément. Dans l'application, pointez simplement votre appareil photo sur le texte que vous souhaitez traduire et vous le verrez se transformer en direct dans la langue de votre choix, juste sous vos yeux - aucune connexion Internet ou données de téléphone portable nécessaires. Cette fonctionnalité pratique est disponible depuis un certain temps, mais elle n'était compatible qu'avec sept langues. À présent , grâce à l'apprentissage automatique, Google a mis à niveau l'application pour traduire instantanément 27 langues.

Donc, la prochaine fois que vous êtes à Prague et que vous ne pouvez pas lire un menu, nous sommes là pour vous, Otavio Good, ingénieur logiciel chez Google, a écrit sur les recherches de l'entreprise Blog .

Google vient également d'utiliser l'IA pour réduire de moitié ses erreurs de reconnaissance vocale.

À ce jour, en plus de la traduction entre l'anglais, le français, l'allemand, l'italien, le portugais, le russe et l'espagnol, les 20 langues suivantes peuvent également être traduites en temps réel : bulgare, catalan, croate, tchèque, danois, néerlandais, philippin, finnois, hongrois, indonésien, lituanien, norvégien, polonais, roumain, slovaque, suédois, turc et ukrainien. Et si vous choisissez de prendre une photo au lieu de regarder le texte traduit en direct, 37 langues au total sont prises en charge.

Alors, comment Google a-t-il pu augmenter le nombre de langues disponibles ? Ils ont d'abord acquis Word Lens, anciennement une application de traduction en réalité augmentée, et ont utilisé l'apprentissage automatique et les réseaux de neurones convolutifs pour améliorer les capacités de l'application. Les progrès de la reconnaissance d'images ont été déterminants.

Il y a cinq ans, si vous donniez à un ordinateur une image d'un chat ou d'un chien, il avait du mal à dire lequel était lequel. Grâce aux réseaux de neurones convolutifs, non seulement les ordinateurs peuvent faire la différence entre les chats et les chiens, mais ils peuvent même reconnaître différentes races de chiens, a déclaré M. Good. Oui, ils sont bons pour plus que juste art trippant - si vous traduisez un menu étranger ou signez avec la dernière version de l'application Google Translate, vous utilisez maintenant un réseau neuronal profond.

Pas à pas

D'abord , Translate doit éliminer l'encombrement de l'arrière-plan et localiser le texte. Lorsqu'il localise des gouttes de pixels de la même couleur, il détermine qu'il s'agit de lettres. Et lorsque ces gouttes sont proches les unes des autres, il comprend que c'est une ligne continue à lire.

Suivant, l'application doit reconnaître ce qu'est chaque lettre individuelle. C'est là qu'intervient l'apprentissage en profondeur.

Nous utilisons un réseau de neurones convolutifs, en l'entraînant sur des lettres et des non-lettres afin qu'il puisse apprendre à quoi ressemblent différentes lettres, lit le billet de blog.

Les chercheurs ont dû former le logiciel en utilisant non seulement des lettres d'apparence propre, mais aussi des lettres sales. Les lettres envoyées dans le monde réel sont entachées de reflets, de saleté, de taches et de toutes sortes de bizarreries, a écrit M. Good. Nous avons donc construit notre générateur de lettres pour créer toutes sortes de fausses saletés afin d'imiter de manière convaincante le bruit du monde réel - faux reflets, fausses taches, fausses bizarreries tout autour. Certains

Certaines des lettres sales utilisées pour la formation. (Photo : Google)








le la troisième L'étape consiste à rechercher les lettres reconnues dans un dictionnaire pour obtenir les traductions. Et pour une tentative supplémentaire de précision, les recherches dans le dictionnaire sont approximatives au cas où un S serait mal interprété comme un 5.

Dernièrement, le texte traduit est rendu par-dessus l'original dans le même style.

Nous pouvons le faire parce que nous avons déjà trouvé et lu les lettres dans l'image, nous savons donc exactement où elles se trouvent. Nous pouvons regarder les couleurs entourant les lettres et les utiliser pour effacer les lettres originales. Et puis nous pouvons dessiner la traduction par-dessus en utilisant la couleur de premier plan d'origine, lit-on dans le billet de blog.

Afin d'être aussi efficace que possible et de permettre à toutes ces étapes d'être effectuées en temps réel sans connexion Internet ni de données, l'équipe de Google a développé un très petit réseau de neurones avec une limite supérieure à la densité d'informations qu'il peut gérer. Puisqu'ils généraient leurs propres données d'entraînement, il était important d'inclure les bonnes données mais rien de plus afin que le réseau de neurones n'utilise pas trop sa densité d'informations sur des choses sans importance. Un exemple serait de savoir comment il doit reconnaître une lettre avec une légère rotation, mais pas trop.

En fin de compte, les utilisateurs se retrouvent avec 20 langues de plus mais la même vitesse rapide.

VOIR AUSSI : L'équipe d'IA de Google nous a fait part de ses recherches sur l'apprentissage automatique

Articles Que Vous Aimerez Peut-Être :