دانشمندان روشی مبتنی بر مدل‌سازی هوش مصنوعی توسعه داده‌اند که نحوه تولید آواز پرندگان را تقلید می‌کند، مشابه روشی که مدل‌های زبانی بزرگی مانند ChatGPT برای تولید جملات انسانی استفاده می‌کنند.

با آموزش این مدل بر اساس ضبط‌های آواز پرندگان، این سیستم موفق شد دنباله‌های آواز سهره بنگالی را بازسازی کند و بینش‌های مهمی را در مورد چگونگی ساختاردهی آواهای پرندگان آشکار کند.

این پژوهش که در مجله علوم اعصاب منتشر شده است، می‌تواند درک ما را از نوروبیولوژی پردازش زبان و نحوه شکل‌گیری الگوهای پیچیده صوتی در انسان و حیوانات بهبود بخشد.

آواز پرندگان و زبان انسان

هم پرندگان و هم انسان‌ها صداهای خود را به شیوه‌ای ساختاریافته تنظیم می‌کنند. در گفتار انسانی، کلمات از قوانین گرامری مشخصی پیروی می‌کنند، در حالی که پرندگان آوازهای خود را در الگوهای هجایی منظم می‌خوانند.

دژهه جین، دانشیار فیزیک در کالج علوم اِبِرلی دانشگاه پنسیلوانیا و نویسنده اصلی این مطالعه، توضیح داد:
“اگرچه آواز پرندگان بسیار ساده‌تر از زبان انسان است، اما دنباله هجایی آن‌ها به روشی مشابه زبان انسان سازمان‌دهی می‌شود. بنابراین، پرندگان مدل خوبی برای بررسی نوروبیولوژی زبان فراهم می‌کنند.”

یکی از ویژگی‌های کلیدی آواز پرندگان و زبان انسان، وابستگی به زمینه (Context Dependence) است، به این معنا که صداهای قبلی بر آنچه در ادامه می‌آید تأثیر می‌گذارند.

برای مثال، در زبان انگلیسی، عبارت “flies like” معانی متفاوتی دارد:

  • در جمله “time flies like an arrow” (زمان مانند یک تیر می‌گذرد)، این عبارت به مفهوم “گذشتن زمان” اشاره دارد.
  • در جمله “fruit flies like bananas” (مگس‌های میوه به موز علاقه دارند)، این عبارت درباره‌ی حشرات و غذا است.
  • اما اگر بگوییم “time flies like bananas” (زمان مانند موز می‌گذرد)، جمله بی‌معنا می‌شود.

همین اصل در آواز پرندگان نیز صدق می‌کند: ترتیب هجاهای آن‌ها تصادفی نیست، بلکه از الگوهای خاصی پیروی می‌کند که باعث می‌شود آوازشان قابل‌شناسایی باشد.

جین افزود:
“ما در تحقیقات قبلی‌مان دریافتیم که آواز سهره‌های بنگالی نیز وابستگی به زمینه دارد. در این مطالعه، روش آماری جدیدی برای اندازه‌گیری بهتر این ویژگی در هر پرنده توسعه دادیم تا درک کنیم که چگونه در مغز آن‌ها سیم‌کشی شده است.”

آموزش یک مدل تولیدکننده آواز پرندگان

محققان آوازهای ضبط‌شده‌ی شش سهره بنگالی را تجزیه‌وتحلیل کردند. هر پرنده معمولاً بین ۷ تا ۱۵ هجای مختلف در هر دنباله آواز خود دارد.

مدل هوش مصنوعی آن‌ها، مشابه مدل‌های زبانی بزرگ، یاد می‌گیرد که احتمال وقوع هر هجا در یک دنباله چقدر است، درست مانند نحوه‌ای که ChatGPT کلمات را بر اساس متن قبلی پیش‌بینی می‌کند.

این مدل بر اساس مدل‌های مارکوف ساخته شده است؛ روشی که ترتیب رویدادها را با ردیابی آنچه در گذشته رخ داده، پیش‌بینی می‌کند. تصور کنید یک نمودار جریان (Flowchart) داریم که هر هجا به چند هجای احتمالی بعدی منتهی می‌شود، با احتمال‌های مشخص برای هر انتقال.

جین توضیح داد:
“مدل‌های پایه‌ای مارکوف ساده هستند، اما بیش از حد تعمیم می‌دهند و ممکن است دنباله‌هایی ایجاد کنند که در واقعیت وجود ندارند.”

به همین دلیل، تیم پژوهشی از یک نوع خاص از مدل‌های مارکوف به نام مدل مارکوف نیمه‌قابل‌مشاهده (Partially Observable Markov Model) استفاده کرد. این مدل وابستگی به زمینه را نیز در نظر می‌گیرد و ارتباطات بیشتری میان هجاهای معمولی برقرار می‌کند. این پیچیدگی اضافه‌شده، دقت مدل را افزایش می‌دهد.

با استفاده از این روش، تیم پژوهشی مجموعه‌ای از مدل‌های احتمالی برای هر پرنده ایجاد کرد و آن‌ها را به‌تدریج اصلاح کرد تا فقط دنباله‌هایی تولید شود که در آواز طبیعی پرنده‌ها دیده شده است.

یافته‌های مدل آواز پرندگان

نتایج نشان داد که همه شش پرنده موردبررسی وابستگی به زمینه را در آوازهای خود نشان دادند، به این معنا که آوازهای خود را به‌طور تصادفی نمی‌خوانند، بلکه آن‌ها را با ساختاری خاص تنظیم می‌کنند.

با این حال، میزان وابستگی به زمینه در بین پرندگان متفاوت بود.

جین توضیح داد:
“این تفاوت می‌تواند ناشی از عوامل متعددی باشد، از جمله ویژگی‌های مغزی پرندگان. یا شاید هم، از آنجایی که این آوازها آموخته می‌شوند، ممکن است میزان وابستگی به زمینه در آواز معلم پرنده نیز تأثیرگذار باشد.”

برای بررسی بیشتر این موضوع، پژوهشگران پرندگانی را مطالعه کردند که قادر به شنیدن آوازهای خود نبودند. نتایج بسیار قابل‌توجه بود:

✅ این پرندگان کاهش چشمگیری در هجاهای وابسته به زمینه داشتند، که نشان می‌دهد بازخورد شنوایی نقش حیاتی در تنظیم آوازهای آن‌ها دارد.

این یافته نشان می‌دهد که پرندگان، مشابه انسان‌ها هنگام یادگیری زبان، به آوازهای خود گوش می‌دهند و الگوهای صوتی‌شان را بر اساس آن تنظیم می‌کنند.

جین افزود:
“پرندگان به آوازهای خود گوش می‌دهند و بر اساس آنچه می‌شنوند، آوازشان را تنظیم می‌کنند. به نظر می‌رسد که مکانیزم‌های مرتبط در مغز نقش مهمی در وابستگی به زمینه دارند.”

وی همچنین اشاره کرد که در آینده، محققان قصد دارند فعالیت نورون‌ها را هنگام تولید آواز نقشه‌برداری کنند تا ببینند کدام مدارهای مغزی، کنترل وابستگی به زمینه را بر عهده دارند.

کاربردهای گسترده‌تر این پژوهش

محققان تأکید کردند که این روش مدل‌سازی جدید مبتنی بر هوش مصنوعی نه‌تنها برای آواز پرندگان، بلکه برای تحلیل سایر صداهای حیوانات و الگوهای رفتاری آن‌ها نیز قابل‌استفاده است.

جین گفت:
“ما در واقع این روش را روی زبان انگلیسی نیز آزمایش کردیم و توانستیم متنی تولید کنیم که تا حد زیادی از نظر گرامری صحیح بود.”

این نشان می‌دهد که مکانیزم‌های عصبی حاکم بر آواز پرندگان و زبان انسان، شباهت‌های عمیق‌تری نسبت به آنچه قبلاً تصور می‌شد دارند.

برخی از فیلسوفان معتقدند که دستور زبان انسانی یک ویژگی شناختی منحصربه‌فرد است، اما این مطالعه این پرسش را مطرح می‌کند که آیا زبان انسان واقعاً تا این حد منحصر‌به‌فرد است، در حالی که پرندگان از الگوهای مشابهی پیروی می‌کنند؟

درک زبان و ارتباطات انسانی

این پژوهش افق‌های جدیدی را برای درک نحوه رمزگذاری زبان و ارتباطات در مغز، چه در انسان و چه در پرندگان، باز می‌کند.

✅ در آینده، دانشمندان امیدوارند فعالیت‌های نورونی را در حین تولید آواز ترسیم کنند تا ببینند کدام مدارهای مغزی، کنترل وابستگی به زمینه را بر عهده دارند.

✅ همچنین، قصد دارند مدل‌های هوش مصنوعی را روی سایر گونه‌های صوتی مانند نهنگ‌ها، دلفین‌ها و نخستی‌ها اعمال کنند تا الگوهای مشترک در ارتباطات را شناسایی کنند.

در نهایت، این تحقیقات پلی میان علوم اعصاب، هوش مصنوعی و زبان‌شناسی ایجاد می‌کند و سرنخ‌های جدیدی درباره چگونگی تولید ارتباطات ساختاریافته در مغز موجودات زنده ارائه می‌دهد.

🚀 با پیشرفت فناوری هوش مصنوعی، مدل‌های آموزش‌دیده بر اساس آواز پرندگان می‌توانند به ما در درک بهتر پردازش زبان در مغز انسان و چگونگی تطبیق گفتار در طول زمان کمک کنند.

source

توسط elmikhabari