استفاده از Compressed Attention Blocks
برای درک زمینه کلی (Global Context)
از Compressed Attention برای درک روابط معنایی در مقیاس بزرگ تر و درک "زمینه کل" متن استفاده میشه. "زمینه کلی" به درک موضوع اصلی متن، ارتباط بین بخش های مختلف متن و اطلاعاتی که در سراسر متن پراکنده شدن، اشاره داره.
در این بخش، کل "توالی Attention" که در واقع نشون دهنده تمام بخشهای متن هست و مدل به اونها توجه میکنه به بلوکهای کوچک تری تقسیم میشن.
سپس این بلوک های کوچک تر تحت فرآیند "فشردهسازی" قرار میگیرن. این فرآیند "فشردهسازی" میتونه با استفاده از تکنیک های مختلفی انجام شه، اما هدف اصلی اون، کاهش حجم اطلاعات و در عین حال حفظ اطلاعات کلیدی و مهمه. به این ترتیب، مدل میتونه به شکل خلاصه تری از "زمینه کلی" متن آگاه شه.
انتخاب بلوکهای برتر Top-N Blocks
پس از اعمال "فشردهسازی" ، مدل بلوک های فشرده شده رو ارزیابی میکنه و تعداد محدودی "N" از بلوک هایی که به بیشترین ارتباط و اهمیت رو برای کلمه فعلی دارند، انتخاب میکنه.
عدد "N" معمولا کوچک در نظر گرفته میشه و تعداد بلوکهای انتخابی رو تعیین میکنه. این مرحله مانند یک فیلتر عمل میکنه که بخشهای مهم تر متن رو برای بررسی دقیقتر جدا میکنه.
مرحله نهایی، مدل مکانیسم توجه معمولی رو فقط بر روی این "N" بلوک برتر اعمال میکنه. منظور از توجه معمولی در اینجا به مکانیزم attention سنتی اشاره داره که در روشهای قبلی استفاده میشد. با این تفاوت که در این روش، "توجه معمولی فقط بر روی بخشهای گزینش شده و مهم متن اعمال میشه، نه کل متن.
compressed attention
به مدل امکان میده تا با نگاهی سریع و اجمالی به کل متن، "زمینه کل" رو درک کنه و سپس بخشهای مهم تر رو برای بررسی دقیق تر و عمیق تر انتخاب کنه. این روش، تعادلی بین سرعت و دقت در پردازش متون طولانی ایجاد میکنه.
ادامه دارد ...
برای درک زمینه کلی (Global Context)
از Compressed Attention برای درک روابط معنایی در مقیاس بزرگ تر و درک "زمینه کل" متن استفاده میشه. "زمینه کلی" به درک موضوع اصلی متن، ارتباط بین بخش های مختلف متن و اطلاعاتی که در سراسر متن پراکنده شدن، اشاره داره.
در این بخش، کل "توالی Attention" که در واقع نشون دهنده تمام بخشهای متن هست و مدل به اونها توجه میکنه به بلوکهای کوچک تری تقسیم میشن.
سپس این بلوک های کوچک تر تحت فرآیند "فشردهسازی" قرار میگیرن. این فرآیند "فشردهسازی" میتونه با استفاده از تکنیک های مختلفی انجام شه، اما هدف اصلی اون، کاهش حجم اطلاعات و در عین حال حفظ اطلاعات کلیدی و مهمه. به این ترتیب، مدل میتونه به شکل خلاصه تری از "زمینه کلی" متن آگاه شه.
انتخاب بلوکهای برتر Top-N Blocks
پس از اعمال "فشردهسازی" ، مدل بلوک های فشرده شده رو ارزیابی میکنه و تعداد محدودی "N" از بلوک هایی که به بیشترین ارتباط و اهمیت رو برای کلمه فعلی دارند، انتخاب میکنه.
عدد "N" معمولا کوچک در نظر گرفته میشه و تعداد بلوکهای انتخابی رو تعیین میکنه. این مرحله مانند یک فیلتر عمل میکنه که بخشهای مهم تر متن رو برای بررسی دقیقتر جدا میکنه.
مرحله نهایی، مدل مکانیسم توجه معمولی رو فقط بر روی این "N" بلوک برتر اعمال میکنه. منظور از توجه معمولی در اینجا به مکانیزم attention سنتی اشاره داره که در روشهای قبلی استفاده میشد. با این تفاوت که در این روش، "توجه معمولی فقط بر روی بخشهای گزینش شده و مهم متن اعمال میشه، نه کل متن.
compressed attention
به مدل امکان میده تا با نگاهی سریع و اجمالی به کل متن، "زمینه کل" رو درک کنه و سپس بخشهای مهم تر رو برای بررسی دقیق تر و عمیق تر انتخاب کنه. این روش، تعادلی بین سرعت و دقت در پردازش متون طولانی ایجاد میکنه.
ادامه دارد ...