Atelier d'ingénierie rapide Smartcat AI

Il est désormais plus facile que jamais d’optimiser Smartcat pour une qualité et un débit accrus à l’aide d’une variété d’outils d’IA génératifs intégrés directement à la plateforme.

Titre

Au cours de cette session interactive et pratique, l'équipe produit Smartcat :

➡️ Parcourez les principales fonctionnalités de Gen AI désormais disponibles sur la plateforme Smartcat AI
➡️ Plongez dans les détails de l'optimisation de Smartcat pour différents scénarios
➡️ Répondez aux questions et fournissez des conseils détaillés pour vous aider à utiliser ces outils d'IA avec votre propre contenu

➡️ Partagez les exemples d'invites OpenAI pour Smartcat

Découvrez comment votre organisation peut appliquer Smartcat AI

Questions et réponses du webinaire

Q : Est-ce uniquement disponible avec l'abonnement Unite ?

R : Je vous suggère de contacter votre responsable du service client et de lui poser des questions sur votre abonnement.


Q : Si vous souhaitez traduire un fichier XLIFF, l’utilisation de l’invite AI constitue-t-elle une valeur ajoutée ? Ou devrions-nous nous en tenir au modèle actuel ?

R : Cela pourrait être une valeur ajoutée, comme l’a montré Andy, si vous souhaitez générer une terminologie ou un style très spécifique. Nous vous montrerons dans un instant ce qui peut encore être fait.


Q : Existe-t-il une liste de domaines disponibles ?

R : Les LLM couvrent la plupart des domaines. Ils sont formés à l’aide de milliards de documents.


Q : Sera-t-il possible à un moment donné de lier l’invite du glossaire à des glossaires spécifiques au lieu de tous les glossaires disponibles dans un projet donné ? Mon objectif est de réduire les faux positifs en demandant au modèle d'utiliser un glossaire spécifique tout en conservant les glossaires de référence dans l'éditeur pour que les post-éditeurs puissent vérifier d'autres terminologies, telles que les termes polysémiques, les termes généraux, les synonymes, etc., que je ne veux pas que le modèle utilise pour la traduction dans tous les cas.

R : Bonne question. À l’heure actuelle, nous utilisons des glossaires associés au projet. Une option dans votre cas pourrait être de peaufiner un moteur en utilisant vos données. Mais nous pouvons étudier votre suggestion.


Q : Existe-t-il une limitation quant à la longueur de l'invite au cas où je souhaite être très précis avec le style, la terminologie, les phrases standard, etc. ?

R : Techniquement non. Mais cela pourrait ralentir le processus de traduction. Si vous souhaitez avoir un impact sur le rendement général, un réglage fin du moteur peut être plus adapté.


Q : Pouvons-nous ajouter des textes parallèles comme références, afin que l'IA choisisse leur style ?

R : Vous pouvez affiner un moteur en fournissant des paires de phrases comme référence et le moteur essaiera de correspondre à votre style.


Q : Lorsque nous exécutons une traduction à l’aide d’une invite/du LLM, utilise-t-il le nombre de mots de notre abonnement ? Ou comment ça marche ?

R : Oui, les mots générés à l’aide d’une invite du LLM consommeront des Smartwords.


Q : Pouvez-vous expliquer l’importance de l’utilisation d’accolades ? S'agit-il de termes système qui ne fonctionneront que si vous tapez le mot exactement comme indiqué ?

R : Comme l'a partagé Jean-Luc, nous disposons d'une petite bibliothèque d'invites préconfigurées, que vous pouvez trouver sur le côté droit de l'interface utilisateur de génération d'invites.


Q : Pour le moment, dans nos projets, le préréglage GPT avec invites ne fonctionne pas pour les chaînes qui ont des balises (balises jaunes pour les balises, chaque fois qu'il y a un formatage dans la source). Dans ces cas, le préréglage revient automatiquement à une autre machine de traduction. Connaissez-vous une solution de contournement et comment le préréglage GPT fonctionne également sur les chaînes avec des balises ?

A : Comme indiqué par Jean-Luc, examinons quelques exemples spécifiques de balises et voyons si nous pouvons affiner l'invite pour ignorer les balises dans les chaînes


Q : Est-ce que cela fonctionne aussi bien si nous travaillons avec des langues avec des cas ?

R : Oui. Il existe donc des langages dits à faibles ressources. Donc les modèles, généralement les modèles lorsqu'ils essaient de récupérer les données, et évidemment la plupart. La grande majorité des données sont des données en anglais. C'est pourquoi les modèles linguistiques de l'lam montrent les meilleurs résultats en anglais. Mais au fur et à mesure que vous essayez d'autres langues différentes. Vous verriez la qualité se dégrader et la langue que vous essayez de traduire devenir plus rare. Les pires résultats seraient probablement les suivants, mais les langues avec casse ne sont pas nécessairement celles qui nécessitent peu de ressources. Alors oui, ça marche bien. Mais si vous continuez avec l'une des langues à faibles ressources à mentionner, il y a l'arménien, et l'une des langues les plus complexes qui existent. Tu le ferais. Vous pourriez probablement voir des résultats inattendus. Mais d'habitude, tu le ferais. Vous obtiendrez de bons résultats dans certains cas.