Nous parlons tous des gains commerciaux liés à l’utilisation de grands modèles de langage, mais il existe de nombreux problèmes connus avec ces modèles, et trouver des moyens de limiter les réponses qu’un modèle pourrait donner est une façon d’appliquer un certain contrôle à ces puissantes technologies. Aujourd’hui, lors de la conférence AWS re:Invent à Las Vegas, Adam Selipsky, PDG d’AWS, a annoncé Guardrails pour Amazon Bedrock.
« Avec Guardrails pour Amazon Bedrock, vous pouvez mettre en œuvre de manière cohérente des mesures de protection afin d’offrir aux utilisateurs des expériences pertinentes et sûres, conformes aux politiques et aux principes de votre entreprise », a écrit l’entreprise dans un billet de blog ce matin.
Le nouvel outil permet aux entreprises de définir et de limiter le type de langage qu’un modèle peut utiliser. Ainsi, si quelqu’un pose une question qui n’est pas vraiment pertinente pour le bot que vous êtes en train de créer, celui-ci n’y répondra pas plutôt que de fournir une réponse très convaincante mais erronée, ou pire – quelque chose d’offensant qui pourrait nuire à une marque.
At its most basic level, the company lets you define topics that are out of bounds for the model, so it simply doesn’t answer irrelevant questions. As an example, Amazon uses a financial services company, which may want to avoid letting the bot give investment advice for fear it could provide inappropriate recommendations that the customers might take seriously. A scenario like this could work as follows:
GET IN TOUCH
Améliorer votre expérience Client aujourd’hui
Je spécifie un sujet refusé avec le nom « Conseils en investissement » et je fournis une description en langage naturel, telle que « Les conseils en investissement font référence à des demandes, des conseils ou des recommandations concernant la gestion ou l’allocation de fonds ou d’actifs dans le but de générer des rendements ou d’atteindre des objectifs financiers spécifiques ».
En outre, vous pouvez filtrer des mots et des phrases spécifiques pour supprimer tout type de contenu susceptible d’être offensant, tout en appliquant des forces de filtrage à différents mots et phrases pour indiquer au modèle qu’ils sont hors limites. Enfin, vous pouvez filtrer les données PII afin d’exclure les données privées des réponses du modèle.
Ray Wang, fondateur et analyste principal chez Constellation Research, estime qu’il pourrait s’agir d’un outil clé pour les développeurs qui travaillent avec des LLM afin de les aider à contrôler les réponses indésirables. « L’un des plus grands défis consiste à créer une IA responsable, sûre et facile à utiliser. Le filtrage du contenu et les IIP sont deux des cinq principaux problèmes auxquels les développeurs sont confrontés », a déclaré Wang à TechCrunch. « La capacité de transparence, d’explication et de réversibilité est également essentielle », a-t-il ajouté.
La fonction « guardrails » a été annoncée en avant-première aujourd’hui. Elle sera probablement disponible pour tous les clients dans le courant de l’année prochaine.
Source : https://techcrunch.com