<?xml version="1.0" encoding="UTF-8" ?>
<rss
    version="2.0"
    xmlns:atom="http://www.w3.org/2005/Atom"
    xmlns:content="http://purl.org/rss/1.0/modules/content/"
    xmlns:webfeeds="http://webfeeds.org/rss/1.0"
    xmlns:media="http://search.yahoo.com/mrss/"
    >
    <channel>
        <title>Self-attention Tag - Viblo</title>
        <link>https://viblo.asia/rss</link>
        <description><![CDATA[Free service for technical knowledge sharing]]></description>
        <atom:link href="https://viblo.asia/rss/tags/self-attention.rss" rel="self"></atom:link>
                <copyright>Sun* Inc.</copyright>
                                                <webfeeds:logo>https://viblo.asia/logo_full.svg</webfeeds:logo>
        <image>
            <url>https://viblo.asia/logo_full.svg</url>
            <title>Self-attention Tag - Viblo</title>
            <link>https://viblo.asia/rss</link>
        </image>
                                <language>vi-vn</language>
        <lastBuildDate>2026-04-25T18:28:21+07:00</lastBuildDate>
                <item>
            <title><![CDATA[Local Attention trong Mô hình Học Sâu]]></title>
                        <link>https://viblo.asia/p/local-attention-trong-mo-hinh-hoc-sau-MkNLrWkbVgA</link>
            <guid isPermaLink="true">https://viblo.asia/p/local-attention-trong-mo-hinh-hoc-sau-MkNLrWkbVgA</guid>
            <description><![CDATA[Local Attention là gì?
Local Attention (chú ý cục bộ) là một biến thể của cơ chế attention truyền thống, được thiết kế để giảm chi phí tính toán và tố...]]></description>
                        <dc:creator xmlns:dc="http://purl.org/dc/elements/1.1/">Trần Minh</dc:creator>
            <pubDate>2025-04-17 21:04:51</pubDate>
                                                                                                        </item>
                <item>
            <title><![CDATA[[Machine Learning] Một số nguồn hay cho việc tìm hiểu cơ chế &quot;Attention&quot;]]></title>
                        <link>https://viblo.asia/p/machine-learning-mot-so-nguon-hay-cho-viec-tim-hieu-co-che-attention-aNj4vQzdV6r</link>
            <guid isPermaLink="true">https://viblo.asia/p/machine-learning-mot-so-nguon-hay-cho-viec-tim-hieu-co-che-attention-aNj4vQzdV6r</guid>
            <description><![CDATA[head-attention-mechanism
https://data-science-blog.com/blog/2021/04/07/multi-head-attention-mechanism/

Giải thích về mặt toán học cơ chế head attenti...]]></description>
                        <dc:creator xmlns:dc="http://purl.org/dc/elements/1.1/">Phan Ngoc</dc:creator>
            <pubDate>2023-02-26 10:21:52</pubDate>
                                                                                                        </item>
                <item>
            <title><![CDATA[Khám phá sức mạnh của cơ chế Self Attention trong Transformers]]></title>
                        <link>https://viblo.asia/p/kham-pha-suc-manh-cua-co-che-self-attention-trong-transformers-BQyJKj9R4Me</link>
            <guid isPermaLink="true">https://viblo.asia/p/kham-pha-suc-manh-cua-co-che-self-attention-trong-transformers-BQyJKj9R4Me</guid>
            <description><![CDATA[Lời nói đầu
Transformers đã cách mạng hóa quá trình xử lý ngôn ngữ tự nhiên (NLP) bằng cách đạt được hiệu suất tiên tiến nhất trên nhiều tác vụ như dị...]]></description>
                        <dc:creator xmlns:dc="http://purl.org/dc/elements/1.1/">Hole Black Quyết</dc:creator>
            <pubDate>2023-02-19 19:42:38</pubDate>
                                                                                                        </item>
                <item>
            <title><![CDATA[Cơ chế Attention và các hàm tính Attention Scoring]]></title>
                        <link>https://viblo.asia/p/co-che-attention-va-cac-ham-tinh-attention-scoring-eW65G4yJKDO</link>
            <guid isPermaLink="true">https://viblo.asia/p/co-che-attention-va-cac-ham-tinh-attention-scoring-eW65G4yJKDO</guid>
            <description><![CDATA[Cơ chế Attention là gì?

Trong lĩnh vực ML, DL, bài toán dịch máy với mạng neural (Neural Machine Translation) chắc hẳn không còn xa lạ gì với mọi ngư...]]></description>
                        <dc:creator xmlns:dc="http://purl.org/dc/elements/1.1/">Chung Pham Van</dc:creator>
            <pubDate>2021-07-22 12:42:45</pubDate>
                                                                                                        </item>
                <item>
            <title><![CDATA[Tản mạn về Self Attention]]></title>
                        <link>https://viblo.asia/p/tan-man-ve-self-attention-07LKXoq85V4</link>
            <guid isPermaLink="true">https://viblo.asia/p/tan-man-ve-self-attention-07LKXoq85V4</guid>
            <description><![CDATA[Self attention hay intra-attention - cụm từ chắc hẳn đã được đồng đạo trong giới Machine Learning biết đến nhiều qua một bài báo rất nổi tiếng Attenti...]]></description>
                        <dc:creator xmlns:dc="http://purl.org/dc/elements/1.1/">Bui Quang Manh</dc:creator>
            <pubDate>2021-03-29 10:25:19</pubDate>
                                                                                                        </item>
            </channel>
</rss>
