<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AKABI</title>
	<atom:link href="https://www.akabi.eu/fr/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.akabi.eu/fr/</link>
	<description>We deliver digital, with challenge &#38; passion</description>
	<lastBuildDate>Fri, 24 Feb 2023 13:09:36 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.akabi.eu/wp-content/uploads/2021/09/cropped-logo_black-32x32.png</url>
	<title>AKABI</title>
	<link>https://www.akabi.eu/fr/</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">227063628</site>	<item>
		<title>Les « Transformers » : pourquoi l’Attention 🧠 est tout ce dont vous avez besoin?</title>
		<link>https://www.akabi.eu/fr/les-transformers-pourquoi-lattention-%f0%9f%a7%a0-est-tout-ce-dont-vous-avez-besoin/</link>
		
		<dc:creator><![CDATA[Elhadji Ngom]]></dc:creator>
		<pubDate>Thu, 16 Feb 2023 16:38:35 +0000</pubDate>
				<category><![CDATA[AI]]></category>
		<category><![CDATA[Machine learning]]></category>
		<guid isPermaLink="false">https://akabi.eu/?p=1045</guid>

					<description><![CDATA[<p>Le « Mécanisme d’Attention » est une technique utilisée dans les réseaux neuronaux pour permettre à un modèle de se concentrer sur des parties spécifiques du texte reçu en entrée lors de son traitement. Il est devenu très vite un élément crucial dans le domaine du Deep Learning, en particulier dans le domaine du traitement du langage naturel (NLP). C&#8217;est la composante clé de la technologie des Transformers, qui sont un type de modèle de NLP qui a été présenté dans l’article « Attention Is All You Need » par les chercheurs de Google en 2017. L’architecture de cette technologie utilise des mécanismes d’attention pour pondérer l’importance des différentes parties de texte d’entrée, lui permettant de traiter efficacement des séquences de longueurs variables. Avant l’introduction du Transformer, les modèles de NLP étaient principalement basés sur les réseaux de neurones récurrents (RNNs) tels que le Long Short-Term Memory (LSTM) et le Gated Recurrent Unit (GRU). Ces modèles présentent un inconvénient majeur, à savoir leur incapacité à traiter efficacement des séquences d’entrée de longueurs variables. En effet, les RNNs traitent les séquences d’entrée élément par élément, ce qui signifie que la capacité du modèle à traiter une séquence est limitée par la longueur de la séquence. [&#8230;]</p>
<p>The post <a href="https://www.akabi.eu/fr/les-transformers-pourquoi-lattention-%f0%9f%a7%a0-est-tout-ce-dont-vous-avez-besoin/">Les « Transformers » : pourquoi l’Attention 🧠 est tout ce dont vous avez besoin?</a> appeared first on <a href="https://www.akabi.eu/fr">AKABI</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Le « <strong>Mécanisme d’Attention</strong> » est une technique utilisée dans les réseaux neuronaux pour permettre à un modèle de se concentrer sur des parties spécifiques du texte reçu en entrée lors de son traitement. Il est devenu très vite un élément crucial dans le domaine du Deep Learning, en particulier dans le domaine du traitement du langage naturel (<strong>NLP</strong>). C&rsquo;est la composante clé de la technologie des <em><strong>Transformers</strong></em>, qui sont un type de modèle de <strong>NLP</strong> qui a été présenté dans l’article « <em>Attention Is All You Need</em> » par les chercheurs de Google en 2017. L’architecture de cette technologie utilise des mécanismes d’attention pour pondérer l’importance des différentes parties de texte d’entrée, lui permettant de traiter efficacement des séquences de longueurs variables.</p>



<p>Avant l’introduction du <em><strong>Transformer</strong></em>, les modèles de NLP étaient principalement basés sur les réseaux de neurones récurrents (<strong>RNN</strong>s) tels que le Long Short-Term Memory (<strong>LSTM</strong>) et le Gated Recurrent Unit (<strong>GRU</strong>). Ces modèles présentent un inconvénient majeur, à savoir leur incapacité à traiter efficacement des séquences d’entrée de longueurs variables. En effet, les <strong>RNN</strong>s traitent les séquences d’entrée élément par élément, ce qui signifie que la capacité du modèle à traiter une séquence est limitée par la longueur de la séquence.</p>



<p>Le modèle du <em><strong>Transformer</strong></em> est composé de deux composants principaux : l’<em>encoder</em> et le <em>decoder</em>.</p>



<ul class="wp-block-list">
<li>L<em>’encoder</em> prend la séquence d’entrée et la convertit en un ensemble d’états cachés, qui sont ensuite passés au decoder.</li>



<li>Le <em>decoder</em> prend les états cachés et génère la séquence de sortie.</li>
</ul>



<p>Le mécanisme d’attention est appliqué à la fois dans l’<em>encoder</em> et le <em>decoder</em>. Il effectue le calcul d’un ensemble de poids d’attention pour chaque élément de la séquence d’entrée. Ces poids d’attention sont utilisés pour déterminer l’importance des différentes parties de la séquence d’entrée.</p>



<p>Le modèle du <em><strong>Transformer</strong></em> présente alors deux avantages majeurs par rapport aux modèles <strong>RNN </strong>traditionnels :</p>



<ul class="wp-block-list">
<li>Il peut traiter efficacement des séquences d’entrée de longueurs variables,</li>



<li>Il est muni d’un mécanisme d’attention.</li>
</ul>



<p>Le modèle a ainsi ce qui qu’il faut pour être en mesure de comprendre le contexte dans une séquence de texte. En effet, il peut gérer des tâches telles que la traduction automatique, le résumé de texte ou bien encore tenir une conversation. Le modèle du <em><strong>Transformer</strong></em> est également utilisé dans d’autres tâches de <strong>NLP</strong> telle que la modélisation du langage.</p>



<p>L’architecture du <strong><em>Transformer</em></strong> est également la base de plusieurs variations et extensions telles que le model de <strong>BERT</strong> (Bidirectional Encoder Representations from Transformers) qui est introduit par <em>Google </em>(Jacob Devlin) en 2018 et <strong>GPT</strong> (Generative Pre-trained Transformer) introduit la même année par <em>OpenAI</em>. Tous deux ont réalisé des performances de pointe sur un large éventail de tâches <strong>NLP</strong>.</p>



<p>Dans la forme, les acronymes <strong>BERT </strong>et <strong>GPT</strong> ont en commun la lettre « <strong>T</strong> » pour <em><strong>Transformer</strong></em> dans leurs accronymes respectifs. En ce qui concerne leur fonctionnement, ces deux modèles utilisent le mécanisme d’attention et peuvent traiter des séquences de longueur variable. Le <strong>ChatGPT</strong>, développé récemment par <em>Microsoft</em> en collaboration avec <em>OpenAI</em>, est une version plus légère du <strong>GPT-3</strong>, optimisé pour gérer des conversations comme un humain, idéale pour les chatbots. L’intégration du mécanisme d’attention a été un moment clé dans l’évolution de l’état de l’art en <strong>NLP</strong> et en Intelligence Artificielle en général.</p>



<p class="has-medium-font-size">Le <strong><em>Transformer</em></strong> fait déjà parti du quotidien chez <strong>AKABI</strong>, nous en faisons usage pour répondre aux besoins de nos clients dans différents domaines.</p>



<p>Merci de votre attention!</p>



<p>Pour en savoir plus: <a href="https://arxiv.org/abs/1706.03762" rel="noreferrer noopener" target="_blank">[1706.03762] Attention Is All You Need (arxiv.org)</a></p>
<p>The post <a href="https://www.akabi.eu/fr/les-transformers-pourquoi-lattention-%f0%9f%a7%a0-est-tout-ce-dont-vous-avez-besoin/">Les « Transformers » : pourquoi l’Attention 🧠 est tout ce dont vous avez besoin?</a> appeared first on <a href="https://www.akabi.eu/fr">AKABI</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">1045</post-id>	</item>
	</channel>
</rss>
