0 از 0 رأی

پیش ثبت نام

این دوره در حال پیش ثبت نام می باشد.

متعاقبا با شما تماس گرفته خواهد شد.

برای تسریع در فرآیند ثبت نام می توانید با کارشناس مشاور ما، خانم صادقی (09377516759) نیز تماس حاصل نمایید.

  • نوع دوره: آنلاین
  • 10 دوره
  • 5 ماه
  • مدت زمان: 150 ساعت
  • پیش نیازها: پایتون
  • پشتیبانی آنلاین
  • بارگذاری فیلم کلاس ها پس از اتمام هر جلسه
  • ارائه گواهینامه دو زبانه مورد تایید دانشگاه تهران

جامع ترین دوره مدل های زبانی بزرگ (LLM) و کاربرد هوش مصنوعی مولد

آخرین کد سال با نرخ 1404 و بدون افزایش قیمت در حال تکمیل ظرفیت است

زمان برگزاری:

شروع دوره: 26 بهمن ماه 1404
روزهای برگزاری : یکشنبه و سه شنبه ساعت ۱۷ الی ۲۱

نحوه برگزاری: آنلاین
مدت زمان دوره: 150 ساعت

پیش ثبت نام :

اهداف دوره :

شغل‌های مرتبط با مدل‌های زبانی بزرگ و هوش مصنوعی مولد طی سالیان اخیر در جهان و ایران به شدت مورد توجه قرار گرفته و یکی از جذاب‌ترین و پردرآمدترین حوزه‌های آینده علم داده و یادگیری ماشین محسوب می‌شوند. با وجود جذابیت بالای این زمینه شغلی، گستردگی و تنوع تخصص‌های مورد نیاز برای موفقیت در این حوزه یک چالش بزرگ برای علاقه‌مندان ایجاد کرده است که در بسیاری موارد باعث سردرگمی افراد می‌گردد.

مجموعه تهران دیتا به عنوان یک مرجع حرفه‌ای در حوزه آموزش‌های تخصصی داده و هوش مصنوعی، در این دوره اقدام به آموزش تمامی مهارت‌ها و دانش‌های مورد نیاز جهت تربیت نیروهای متخصص و توانمند در زمینه مدل‌های زبانی بزرگ (LLM) می‌نماید.

این دوره در چهار سرفصل اصلی شامل موارد زیر طراحی شده است :

  • مبانی یادگیری عمیق و مقدمات مدل‌های زبانی بزرگ
  • معماری، آموزش و به‌کارگیری LLM
  • توسعه پیشرفته، پرامپت‌نویسی و روش‌های RAG
  • کاربردها، اقتصاد و آینده هوش مصنوعی مولد

در تمامی این سرفصل‌ها تلاش می‌شود تا با رویکردی پروژه‌محور و با تکیه بر داده‌ها و نمونه‌های واقعی از صنایع مختلف کشور، آموزش به شکلی عمیق، عملی و کاربردی برای دانش‌پذیران ارائه گردد.

مهم‌ترین اهداف این دوره به شرح زیر است:

  • تربیت نیروی متخصص و کاربلد در زمینه مدل‌های زبانی بزرگ (LLM)
  • آشنایی عمیق و کاربردی با تمامی مباحث مرتبط با LLM، از مبانی تا کاربردهای پیشرفته
  • استفاده از پروژه‌ها و داده‌های واقعی صنایع مختلف (مانند بانکداری، سلامت، آموزش و کسب‌وکارهای دیجیتال) به منظور افزایش تسلط و تجربه عملی دانش‌پذیران
  • شناسایی استعدادهای برتر دوره و معرفی به صنعت در طول برگزاری دوره

مزایای دوره جامع مدل‌های زبانی بزرگ (LLM) تهران دیتا :

  • کار کردن با پروژه‌ها و داده‌های واقعی: در طول دوره از داده‌ها و سناریوهای واقعی صنایع مختلف (بانکی، سلامت، آموزش، استارتاپی و …) استفاده می‌شود تا یادگیری شما عمیق و کاربردی باشد.
  • جامعیت دوره و پوشش‌دهی سرفصل‌های کلیدی LLM: تمامی مباحث مهم از مبانی یادگیری عمیق تا معماری، آموزش، بهینه‌سازی و کاربردهای پیشرفته مدل‌های زبانی بزرگ در این دوره پوشش داده می‌شود.
  • استفاده از جدیدترین ابزارها و چارچوب‌های LLM: در کلاس‌ها از آخرین نسخه‌های کتابخانه‌ها و پلتفرم‌های تخصصی مانند Hugging Face، LangChain و ابزارهای استقرار مدل استفاده می‌شود.
  • جلسات Success Story و بررسی نمونه‌های موفق: در طول دوره پروژه‌های موفق جهانی و داخلی (Case Studies) معرفی و تحلیل می‌شوند تا تجربه عملی و مسیر واقعی پیاده‌سازی برای شما روشن شود.
  • قابلیت به‌کارگیری افراد برتر در پروژه‌های بزرگ LLM: نفرات برتر دوره این امکان را خواهند داشت که در پروژه‌های واقعی و صنعتی حوزه LLM به‌کار گرفته شوند و مسیر حرفه‌ای خود را سریع‌تر آغاز کنند.
  • اعطای گواهینامه معتبر دو زبانه از دانشگاه تهران: در پایان دوره به دانش‌پذیران موفق، گواهینامه‌ای معتبر به زبان فارسی و انگلیسی از دانشگاه تهران اعطا می‌شود.

مخاطبان دوره :

این دوره برای افراد مختلفی که در زمینه مدل‌های زبانی و کاربردهای آن‌ها در حوزه‌های مختلف فعالیت می‌کنند، مناسب است. مخاطبان اصلی این دوره شامل:

1. پژوهشگران و دانشجویان تحصیلات تکمیلی

اگر به دنبال درک عمیق مفاهیم مدل‌های زبانی، معماری‌های یادگیری ماشین و روش‌های ارزیابی هستید تا پروژه‌های پژوهشی یا پایان‌نامه‌های خود را با رویکردهای به‌روز تکمیل کنید، این دوره برای شما طراحی شده است.

2. توسعه‌دهندگان و متخصصان فنی (Data/ML/NLP Engineers)

اگر می‌خواهید در پروژه‌های عملی، توسعه اپلیکیشن‌ها با مدل‌های زبانی بزرگ (LLM) فعالیت کنید و با ابزارهایی مانند Langchain و Hugging Face آشنا شوید، این دوره مهارت‌های کدنویسی و استقرار پروژه‌ها را به شما می‌آموزد.

3. مدیران محصول و تصمیم‌گیران فنی/استراتژیک

اگر به دنبال کشف این هستید که چگونه مدل‌های زبانی می‌توانند ارزش کسب‌وکار شما را افزایش دهند و در نقشه‌راه محصول شما نقشی کلیدی داشته باشند، این دوره شما را با کاربرد، اقتصاد و حکمرانی LLM آشنا می‌کند.

4. بنیان‌گذاران استارتاپ‌ها و کارآفرینان AI-first

اگر در جستجوی فرصت‌های نوآورانه و ایده‌های جدید برای محصولات مبتنی بر LLM هستید و می‌خواهید هزینه‌های توسعه را کاهش دهید، این دوره به شما کمک می‌کند تا مدل‌های کسب‌وکار جدید را با استفاده از LLM بسازید و مزیت رقابتی ایجاد کنید.

مسیر آموزشی دوره :

۱. سفر به دنیای یادگیری عمیق

  • آشنایی با شبکه‌های عصبی (نورون، لایه‌ها، وزن‌ها)
  • معماری‌های پایه (MLP، CNN، RNN)
  • الگوریتم‌های آموزش (Backpropagation، Gradient Descent)
  • درک مفاهیم Overfitting و Regularization

۲. معماری شگفت‌انگیز مدل‌های زبانی بزرگ

  • تکامل مدل‌های زبانی: از n-gram تا Transformer
  • نقش Attention و معماری ترنسفورمر
  • چالش مقیاس‌پذیری (داده، پارامتر، توان پردازشی)
  • توانمندی‌ها و محدودیت‌های LLM

۳. جادوی آموزش و به‌کارگیری LLM

  • پیش‌آموزش و Fine-tuning
  • استفاده از دستورالعمل‌ها و ارزیابی مدل‌ها
  • APIها و پروتکل‌های کاربردی
  • استقرار مدل‌ها در محیط واقعی

۴. پرواز با کاربردهای پیشرفته

  • بهینه‌سازی مدل‌ها برای استقرار
  • توسعه اپلیکیشن‌های هوشمند مبتنی بر LLM
  • مدل‌های چندوجهی (متن، تصویر، صدا)
  • بازخورد انسانی و کاربردهای پیشرفته

۵. هنر خلق پرامپت‌های هوشمند

  • یادگیری مبتنی بر پرامپت (Prompt-based Learning)
  • طراحی و بهینه‌سازی پرامپت
  • معرفی Retrieval-Augmented Generation (RAG)
  • کاربردهای سازمانی RAG

۶. فتح مرزهای نوین LLM

  • چالش تولید اطلاعات نادرست و راه‌حل‌ها (RLHF، DPO)
  • کاهش هزینه پردازش (Mixture of Experts، Quantization)
  • LLMهای چندرسانه‌ای (متن + تصویر + ویدئو + صدا)
  • مدل‌های عامل هوشمند (Agents)

۷. آینده هوش مصنوعی مولد و تحول کسب‌وکار

  • نقش LLM در خلق مدل‌های کسب‌وکار نوین
  • تحول تصمیم‌سازی داده‌محور در سازمان‌ها
  • فرصت‌ها و تهدیدهای اخلاقی و تنظیم‌گری
  • آینده بازار کار و نقش‌های جدید (Prompt Engineer، AI Trainer و …)

۸. قله موفقیت با مهارت‌های نهایی

  • تحلیل اقتصاد LLM و مدل‌های درآمدی مبتنی بر API
  • بررسی پروژه‌های واقعی و Case Studyها
  • درک رقابت Big Tech و Open Source
  • آمادگی برای ورود به صنعت و پروژه‌های واقعی

سرفصل های دوره :

1-مروری بر یادگیری عمیق و مباحث پایه‌ای

در این بخش، شرکت‌کنندگان با ساختار درونی شبکه‌های عصبی مصنوعی و نحوه‌ی عملکرد آن‌ها آشنا می‌شوند. توضیح داده می‌شود که هر شبکه از مجموعه‌ای از نورون‌ها تشکیل شده است که با دریافت ورودی‌ها، وزن‌دهی به آن‌ها و عبور از تابع فعال‌سازی، خروجی نهایی را تولید می‌کنند. در این درس به‌صورت مفهومی بیان می‌شود که نورون‌ها چگونه مشابه سلول‌های عصبی مغز انسان عمل می‌کنند، لایه‌های مختلف چه نقشی در انتقال و پردازش داده دارند، و چگونه تغییر وزن‌ها در طول آموزش موجب یادگیری مدل می‌شود. هدف از این بخش، ایجاد درکی شهودی از پایه‌ترین اجزای سازنده‌ی مدل‌های یادگیری عمیق است.

در این بخش، معماری‌های رایج یادگیری عمیق معرفی و مقایسه می‌شوند. ابتدا شبکه‌ی پرسپترون چندلایه (MLP) به‌عنوان ساختار پایه برای داده‌های عددی و جدولی توضیح داده می‌شود. سپس شبکه‌های کانولوشنی (CNN) که برای تحلیل و درک تصاویر به‌کار می‌روند، مورد بررسی قرار می‌گیرند. در ادامه، شبکه‌های بازگشتی (RNN) و نقش آن‌ها در پردازش داده‌های دنباله‌دار مانند متن و صدا تشریح می‌شود. در این بخش، تفاوت در نحوه‌ی جریان اطلاعات در این سه نوع معماری، و معیارهای انتخاب هرکدام بر اساس نوع داده و هدف مسئله، به‌طور عملی و مفهومی مرور خواهد شد.

این بخش به فرآیند یادگیری مدل‌ها اختصاص دارد و نحوه‌ی تنظیم پارامترها برای کاهش خطا را آموزش می‌دهد. مفاهیمی مانند پس‌انتشار خطا (Backpropagation) به‌عنوان مکانیسم اصلی بازخورد در شبکه، و نزول گرادیان (Gradient Descent) به‌عنوان روش پایه برای یافتن حداقل خطا به زبان ساده توضیح داده می‌شوند. همچنین مفهوم بیش‌برازش (Overfitting) و خطرات آن در یادگیری مدل‌ها بررسی شده و روش‌های جلوگیری از آن مانند تفکیک داده‌ها، تنظیم منظم‌سازی و کنترل پیچیدگی مدل مطرح می‌گردد. هدف از این بخش، درک عملی فرآیند آموزش و توانایی تحلیل رفتار مدل در هنگام یادگیری است.

در این بخش، سه رویکرد اصلی یادگیری ماشین معرفی و مقایسه می‌شوند. در یادگیری نظارت‌شده، مدل با داده‌هایی آموزش می‌بیند که برچسب درست دارند، مانند تشخیص تصویر گربه یا سگ. در یادگیری بدون‌نظارت، داده‌ها بدون برچسب هستند و مدل باید به‌صورت خودکار الگوها یا گروه‌بندی‌های پنهان را کشف کند. در یادگیری تقویتی نیز مدل از طریق تجربه و بازخورد (پاداش یا جریمه) یاد می‌گیرد تا بهترین تصمیم را در شرایط مختلف اتخاذ کند. در این بخش، کاربردهای هر روش در مسائل واقعی و تفاوت بنیادین آن‌ها از منظر نوع داده و هدف آموزشی تشریح می‌شود.

در بخش پایانی این درس، زیرساخت‌ها و ابزارهای مورد نیاز برای اجرای مدل‌های یادگیری عمیق معرفی می‌شوند. نقش GPU به‌عنوان واحد پردازش گرافیکی در تسریع محاسبات سنگین توضیح داده می‌شود و اهمیت آن در آموزش مدل‌های بزرگ مورد بررسی قرار می‌گیرد. همچنین دو کتابخانه‌ی پرکاربرد TensorFlow و PyTorch معرفی می‌شوند و نحوه‌ی استفاده‌ی آن‌ها در طراحی، آموزش و استقرار مدل‌ها به‌صورت مقدماتی توضیح داده می‌شود. هدف از این بخش، آشنایی فراگیران با ابزارهای استاندارد و زیرساخت‌های عملیاتی مورد نیاز برای کار با مدل‌های یادگیری عمیق است.

2-مقدمه‌ای بر مدل‌های زبانی بزرگ

در این بخش، سیر تاریخی و فنی تکامل مدل‌های زبانی مورد بررسی قرار می‌گیرد. ابتدا مدل‌های آماری ساده مانند n-gram معرفی می‌شوند که در آن‌ها پیش‌بینی واژه‌ی بعدی صرفاً بر اساس چند واژه‌ی قبل انجام می‌شد. سپس پیشرفت این مدل‌ها تا ظهور شبکه‌های عصبی بازگشتی (RNN) و مدل‌های مبتنی بر حافظه طولانی‌مدت (LSTM) توضیح داده می‌شود. در ادامه، تحول اساسی‌ای که با معرفی معماری Transformer در سال ۲۰۱۷ رخ داد، تشریح می‌شود؛ تحولی که منجر به شکل‌گیری مدل‌های زبانی بزرگ امروزی مانند GPT، PaLM و LLaMA شد. این بخش به فراگیران کمک می‌کند تا درک کنند چگونه مدل‌های زبانی از روش‌های آماری ساده به سامانه‌های عمیق و پیچیده‌ی امروزی رسیده‌اند.

این بخش به بررسی ساختار درونی مدل Transformer می‌پردازد که شالوده‌ی اصلی تمامی مدل‌های زبانی بزرگ است. در این درس مفهوم کلیدی Attention یا «توجه» توضیح داده می‌شود؛ مکانیزمی که به مدل اجازه می‌دهد هنگام پردازش یک جمله، وزن بیشتری به بخش‌های مهم‌تر متن بدهد. به زبان ساده، این سازوکار موجب می‌شود مدل بتواند وابستگی بین کلمات را در جملات بلند درک کند، حتی اگر فاصله‌ی زیادی از هم داشته باشند. در این بخش همچنین اجزای اصلی ترنسفورمر شامل لایه‌های رمزگذار (Encoder) و رمزگشا (Decoder) و نحوه‌ی تعامل آن‌ها با داده‌ها معرفی می‌شود تا فراگیران درکی دقیق از منطق عملکرد LLMها پیدا کنند.

در این بخش، مفهوم مقیاس‌پذیری (Scalability) در مدل‌های زبانی بزرگ تشریح می‌شود. توضیح داده می‌شود که افزایش کیفیت این مدل‌ها حاصل رشد هم‌زمان سه عامل است: حجم عظیم داده‌های آموزشی، تعداد بسیار زیاد پارامترهای مدل (میلیاردها وزن قابل یادگیری)، و قدرت محاسباتی بالا به کمک GPUها و ابررایانه‌ها. شرکت‌کنندگان در این قسمت می‌آموزند که چرا هرچه داده و پارامترها بیشتر می‌شوند، مدل توانایی درک و تولید متن دقیق‌تری پیدا می‌کند، اما هم‌زمان هزینه‌ی آموزش، انرژی مصرفی و نیاز به زیرساخت نیز به‌شدت افزایش می‌یابد.

در این بخش، قابلیت‌ها و نقاط ضعف مدل‌های زبانی بزرگ به‌صورت تحلیلی بررسی می‌شود. از جمله توانمندی‌های این مدل‌ها می‌توان به تولید متن طبیعی و منسجم، پاسخ به پرسش‌ها، خلاصه‌سازی، ترجمه، تولید کد و حتی استدلال‌های زبانی اشاره کرد. با این حال، مدل‌های زبانی محدودیت‌هایی نیز دارند؛ از جمله عدم درک واقعی از معنا، احتمال تولید اطلاعات نادرست (Hallucination)، و حساسیت به داده‌های آموزشی. در این درس تلاش می‌شود میان توانایی‌های چشمگیر این مدل‌ها و مرزهای فعلی دانش آن‌ها تمایز دقیقی ترسیم شود تا درک واقع‌بینانه‌ای از کارکردشان شکل گیرد.

در بخش پایانی این درس، کاربردهای فعلی مدل‌های زبانی بزرگ و روندهای آینده‌ی توسعه‌ی آن‌ها بررسی می‌شود. مثال‌هایی از استفاده‌ی LLMها در موتورهای جست‌وجو، دستیارهای هوشمند، تولید محتوا، تحلیل داده، آموزش و توسعه‌ی نرم‌افزار ارائه می‌شود. سپس مسیرهای پژوهشی آتی مانند ترکیب مدل‌های زبانی با حسگرهای چندوجهی (متن، تصویر و صدا)، بهبود کارایی محاسباتی، افزایش شفافیت در تصمیم‌گیری، و ایجاد مدل‌های تخصصی‌تر برای صنایع مختلف مورد بحث قرار می‌گیرد. هدف از این بخش، ایجاد دیدی جامع نسبت به آینده‌ی فناوری LLM و نقش آن در تحول دیجیتال است.

3-معماری، آموزش و به‌کارگیری مدل‌های زبانی بزرگ (LLM)

در این بخش، فرآیند پیش‌آموزش (Pre-training) مدل‌های زبانی به‌عنوان مرحله‌ی اصلی یادگیری معرفی می‌شود. در این مرحله، مدل با حجم عظیمی از متون عمومی مانند کتاب‌ها، مقالات، صفحات وب و گفتگوها آموزش می‌بیند تا ساختار زبان، روابط میان کلمات و الگوهای زبانی را به‌صورت عمومی فراگیرد. این آموزش بدون نیاز به برچسب یا راهنمای انسانی انجام می‌شود و هدف آن، ساخت مدلی است که بتواند زبان را در سطحی عمیق درک کند. در این درس توضیح داده می‌شود که چگونه مدل از طریق پیش‌بینی کلمه‌ی بعدی یا تکمیل جمله، دانش زبانی را درونی می‌کند و این دانش پایه در مراحل بعدی برای تنظیم دقیق‌تر (Fine-tuning) مورد استفاده قرار می‌گیرد.

در این بخش، شرکت‌کنندگان با مرحله‌ی تنظیم دقیق (Fine-tuning) و نقش آن در تطبیق مدل‌های زبانی با نیازهای خاص آشنا می‌شوند. توضیح داده می‌شود که پس از پیش‌آموزش، مدل باید با داده‌های هدفمندتر و بر اساس دستورالعمل‌های مشخص تنظیم شود تا بتواند پاسخ‌های دقیق‌تر و کاربردی‌تر ارائه دهد. در این فرآیند، مدل با نمونه‌هایی از دستورها و پاسخ‌های مطلوب آموزش داده می‌شود تا یاد بگیرد چگونه در قالب‌های مختلف (پرسش‌وپاسخ، خلاصه‌سازی، ترجمه و غیره) عمل کند. همچنین روش‌های ارزیابی عملکرد مدل پس از تنظیم، از جمله سنجش دقت، انسجام، و هم‌خوانی با دستورالعمل‌ها، مورد بررسی قرار می‌گیرد تا فراگیران درک جامعی از چرخه‌ی کامل آموزش تا بهینه‌سازی مدل پیدا کنند.

در این بخش، جنبه‌های فنی و زیرساختی مربوط به اجرای مدل‌های زبانی بزرگ بررسی می‌شود. شرکت‌کنندگان با مفهوم API (رابط برنامه‌نویسی کاربردی) و نحوه‌ی استفاده از آن برای برقراری ارتباط با مدل‌های زبانی آشنا می‌شوند. همچنین پروتکل‌های استانداردی که برای ارسال درخواست‌ها، دریافت پاسخ‌ها و مدیریت داده‌ها به‌کار می‌روند معرفی می‌شوند. در ادامه، عملکرد GPUها و نقش آن‌ها در تسریع محاسبات سنگین مورد بررسی قرار می‌گیرد. توضیح داده می‌شود که چرا آموزش و اجرای LLMها بدون پردازش موازی مبتنی بر GPU عملاً ممکن نیست و چگونه ابزارهایی مانند CUDA، PyTorch و Hugging Face در این فرآیند نقش کلیدی دارند.

در بخش پایانی این درس، به کاربرد پیشرفته‌ی مدل‌های زبانی در استخراج و نمایش روابط میان داده‌ها پرداخته می‌شود. توضیح داده می‌شود که مدل‌های زبانی می‌توانند از میان حجم زیادی از متن، موجودیت‌ها (مانند افراد، سازمان‌ها، مکان‌ها) و روابط میان آن‌ها را شناسایی کرده و در قالب گراف دانش (Knowledge Graph) نمایش دهند. این گراف‌ها به درک عمیق‌تر از معنا و ارتباط مفاهیم کمک می‌کنند و در حوزه‌هایی مانند موتورهای جست‌وجو، تحلیل داده‌های متنی، و سیستم‌های توصیه‌گر کاربرد گسترده دارند. هدف این بخش، آشنایی فراگیران با نحوه‌ی ترکیب قدرت زبانی LLMها با ساختارهای داده‌محور برای ایجاد بینش‌های تحلیلی و هوشمند است.

4-بهینه‌سازی، توسعه و کاربردهای پیشرفته مدل‌های زبانی بزرگ

در این بخش، تمرکز بر آماده‌سازی مدل‌های زبانی برای مرحله‌ی استقرار (Deployment) است؛ مرحله‌ای که مدل باید در محیط واقعی، با کاربر یا سیستم‌های دیگر تعامل داشته باشد. توضیح داده می‌شود که مدل‌ها پس از آموزش، برای اجرا در مقیاس بزرگ نیازمند بهینه‌سازی هستند تا بتوانند با کمترین منابع سخت‌افزاری، بیشترین کارایی را ارائه دهند. مباحثی مانند فشرده‌سازی مدل (Model Compression)، کاهش دقت محاسبات (Quantization)، و تقسیم‌بندی پردازش میان GPU و CPU مطرح می‌شوند. همچنین روش‌های ارزیابی عملکرد مدل پس از استقرار، نظارت بر کیفیت پاسخ‌ها و مدیریت مصرف منابع بررسی می‌شود تا شرکت‌کنندگان درک دقیقی از الزامات فنی و عملیاتی پیاده‌سازی LLMها در محیط‌های واقعی به دست آورند.

این بخش به نحوه‌ی استفاده از مدل‌های زبانی در طراحی و توسعه‌ی اپلیکیشن‌های هوشمند اختصاص دارد. فراگیران می‌آموزند که چگونه از طریق APIها و فریم‌ورک‌هایی مانند LangChain یا LlamaIndex می‌توان مدل‌های زبانی را درون نرم‌افزارها، پلتفرم‌های گفتگو، موتورهای جست‌وجو یا ابزارهای سازمانی ادغام کرد. در این بخش، مفهوم “Agent” یا عامل هوشمند معرفی می‌شود که می‌تواند با کاربر تعامل کند، داده‌ها را بازیابی نماید و تصمیم‌گیری‌های خودکار انجام دهد. مثال‌هایی از کاربردهای عملی شامل چت‌بات‌های سازمانی، ابزارهای تولید محتوای خودکار، تحلیل‌گرهای متنی و سامانه‌های پشتیبانی مشتری ارائه می‌شود تا شرکت‌کنندگان با فرآیند طراحی، استقرار و تست اپلیکیشن‌های مبتنی بر LLM به‌صورت کاربردی آشنا شوند.

در این بخش، مفهوم مدل‌های زبانی چندوجهی (Multimodal Language Models) معرفی می‌شود که گام بعدی در تکامل LLMها محسوب می‌شوند. این مدل‌ها علاوه بر متن، داده‌هایی مانند تصویر، صدا و ویدیو را نیز پردازش می‌کنند و قادرند ارتباط میان این قالب‌های مختلف را درک نمایند. در این درس، ساختار مدل‌هایی مانند CLIP، Flamingo و Gemini به زبان ساده توضیح داده می‌شود و نحوه‌ی آموزش هم‌زمان داده‌های تصویری و زبانی بررسی می‌گردد. هدف این است که فراگیران درک کنند چگونه مدل‌های چندوجهی می‌توانند پایه‌ی نسل جدیدی از کاربردها مانند جست‌وجوی تصویری هوشمند، توضیح تصویر، و تولید ویدیو از متن باشند. همچنین چالش‌های فنی این حوزه، از جمله حجم بالای داده و هم‌ترازی معنایی میان مدها، به‌صورت اجمالی مرور می‌شود.

در بخش پایانی، نقش بازخورد انسانی (Human Feedback) در بهبود کیفیت و رفتار مدل‌های زبانی مورد بررسی قرار می‌گیرد. روش‌هایی مانند RLHF (یادگیری تقویتی با بازخورد انسانی) توضیح داده می‌شود که در آن، انسان‌ها خروجی‌های مدل را ارزیابی کرده و از این بازخورد برای تنظیم رفتار مدل استفاده می‌شود. علاوه بر آن، رویکردهای جدیدتر مانند DPO (Direct Preference Optimization) و GRPO (Generalized Reward Preference Optimization) معرفی می‌شوند که در نسل‌های جدید LLMها برای آموزش کارآمدتر به‌کار می‌روند. در این بخش همچنین کاربردهای پیشرفته‌ی مدل‌های زبانی، از جمله دستیارهای تصمیم‌یار، تولید محتوای خلاقانه، تحلیل اسناد پیچیده و سامانه‌های تعاملی معرفی می‌شوند تا شرکت‌کنندگان دید جامعی از ظرفیت‌های توسعه‌یافته‌ی LLMها در سطوح حرفه‌ای به دست آورند.

5-یادگیری مبتنی بر پرامپت و تولید افزوده‌شده با بازیابی

در این بخش، دو مفهوم بنیادین یعنی یادگیری مبتنی بر پرامپت (Prompt-based Learning) و تولید افزوده‌شده با بازیابی (Retrieval-Augmented Generation – RAG) معرفی می‌شوند. در یادگیری مبتنی بر پرامپت، به‌جای بازآموزی مدل، ورودی به‌گونه‌ای طراحی می‌شود که مدل پاسخ مطلوب را بر اساس دانشی که از قبل دارد تولید کند. در واقع، پرامپت نقش «دستور هوشمند» را دارد که نحوه‌ی تفکر مدل را هدایت می‌کند. در مقابل، RAG ترکیبی از مدل زبانی و سامانه‌ی جست‌وجو است؛ بدین معنا که پیش از تولید پاسخ، مدل به مجموعه‌ای از منابع اطلاعاتی (مثل اسناد یا پایگاه داده‌ها) مراجعه کرده و پاسخ خود را بر اساس داده‌های به‌روز و معتبر شکل می‌دهد. این بخش به فراگیران کمک می‌کند تا درک دقیقی از تفاوت نقش پرامپت در هدایت مدل و نقش RAG در غنی‌سازی پاسخ‌ها پیدا کنند.

در این بخش، تفاوت رویکردهای نوین مبتنی بر پرامپت و RAG با روش‌های سنتی آموزش مدل‌ها مانند Fine-tuning تشریح می‌شود. در رویکردهای کلاسیک، برای هر کاربرد خاص لازم بود مدل از نو یا با داده‌های تازه بازآموزی شود که فرآیندی زمان‌بر و پرهزینه بود. اما در یادگیری مبتنی بر پرامپت، بدون نیاز به تغییر وزن‌های داخلی مدل، تنها از طریق نوشتن دستورهای هوشمند می‌توان رفتار مدل را متناسب با مسئله تنظیم کرد. در RAG نیز به‌جای افزودن داده به پارامترهای مدل، اطلاعات در زمان پاسخ‌دهی از منابع خارجی بازیابی می‌شود. این تفاوت باعث می‌شود که توسعه‌ی کاربردهای هوش مصنوعی سریع‌تر، سبک‌تر و قابل به‌روزرسانی‌تر انجام گیرد.

این بخش به یکی از مهارت‌های کلیدی کار با مدل‌های زبانی اختصاص دارد: طراحی و بهینه‌سازی پرامپت (Prompt Engineering). شرکت‌کنندگان در این بخش یاد می‌گیرند چگونه دستوراتی بنویسند که مدل را به سمت تولید پاسخ‌های دقیق، مرتبط و کنترل‌شده هدایت کند. موضوعاتی مانند ساختاردهی پرامپت، استفاده از نقش‌ها (Role Prompting)، مثال‌های درون‌متنی (Few-shot Learning)، و تکنیک‌های زنجیره‌ی تفکر (Chain-of-Thought) معرفی می‌شوند. همچنین راهکارهای ارزیابی کیفیت پرامپت‌ها و بهبود آن‌ها از طریق آزمون و خطا، و ابزارهایی مانند PromptLayer و LangChain نیز توضیح داده می‌شوند. هدف این بخش، ارتقای توان طراحی دستورات مؤثر و خلاقانه برای تعامل با مدل‌های زبانی است.

در بخش پایانی این درس، ساختار فنی و فرآیند پیاده‌سازی سیستم‌های RAG به‌صورت مرحله‌به‌مرحله تشریح می‌شود. توضیح داده می‌شود که RAG از دو جزء اصلی تشکیل شده است: بازیاب (Retriever) که مرتبط‌ترین اسناد را از پایگاه داده یا موتور جست‌وجو برمی‌گرداند، و مولد (Generator) که بر اساس این اطلاعات پاسخ را تولید می‌کند. شرکت‌کنندگان در این بخش با معماری‌های متداول RAG، نحوه‌ی اتصال آن به منابع داده (مانند پایگاه‌های برداری و embeddingها)، و ابزارهای عملی نظیر LangChain، FAISS و ChromaDB آشنا می‌شوند. هدف از این بخش، درک کاربردی نحوه‌ی ترکیب قدرت زبانی LLMها با جست‌وجوی اطلاعاتی برای ساخت سامانه‌های پاسخ‌گو، شخصی‌سازی‌شده و به‌روز است.

6-آشنایی و کار با مدل‌های بینایی - زبانی (VLM)

در این بخش، فراگیران با مفاهیم اولیه‌ی مدل‌های چندوجهی (Multimodal Models) آشنا می‌شوند؛ مدل‌هایی که قادرند هم‌زمان داده‌های تصویری و متنی را پردازش و بین آن‌ها ارتباط برقرار کنند. ابتدا مدل معروف CLIP محصول OpenAI معرفی می‌شود که توانست تصویر و متن را در یک فضای معنایی مشترک نمایش دهد و نقطه‌ی عطفی در درک ترکیبی داده‌ها به‌وجود آورد. سپس نسخه‌های پیشرفته‌تر مانند ALIGN، BLIP و SigLIP بررسی می‌شوند که دقت، کارایی و سازگاری بیشتری در درک مفاهیم بصری دارند. در این بخش، نحوه‌ی آموزش این مدل‌ها با جفت‌های تصویر و توضیح متنی و نیز کاربرد آن‌ها در حوزه‌هایی مانند جست‌وجوی تصویری، تولید تصویر از متن و تحلیل محتوای بصری توضیح داده می‌شود.

در این بخش، توانایی مدل‌های بینایی–زبانی در درک تصاویر مورد بررسی قرار می‌گیرد. توضیح داده می‌شود که VLMها چگونه می‌توانند اجزای یک تصویر (اشیا، صحنه‌ها، رنگ‌ها و روابط میان عناصر) را شناسایی کرده و آن را به‌صورت توصیف متنی بیان کنند. فراگیران می‌آموزند که این مدل‌ها برخلاف مدل‌های بینایی کلاسیک، تنها به شناسایی اجسام محدود نیستند بلکه می‌توانند مفهوم کلی یا احساس نهفته در تصویر را نیز تحلیل کنند. مثال‌هایی از کاربردهای عملی شامل تولید توضیح خودکار برای تصاویر (Image Captioning)، تشخیص محتوای نامناسب، و تحلیل داده‌های بصری در رسانه‌ها ارائه می‌شود. هدف این بخش، درک نحوه‌ی تبدیل ویژگی‌های بصری به معناهای زبانی است.

در این بخش، توانایی مدل‌های چندوجهی در تحلیل و درک داده‌های ویدیویی مورد بحث قرار می‌گیرد. توضیح داده می‌شود که مدل‌های ویدیویی با ترکیب فریم‌های تصویری و متن، قادرند رویدادها، کنش‌ها و زمینه‌ی معنایی در ویدیو را تفسیر کنند. این مدل‌ها می‌توانند خلاصه‌ای از ویدیو بنویسند، سؤالات کاربر را درباره‌ی محتوای آن پاسخ دهند یا حتی در سیستم‌های نظارتی و آموزشی به‌کار روند. ساختارهای پیشرفته مانند Video-CLIP یا Flamingo نیز معرفی می‌شوند که درک زمانی و پیوستگی بین فریم‌ها را در مدل لحاظ می‌کنند. هدف این بخش، نشان دادن گسترش قابلیت‌های زبانی–بینایی از تصویر ثابت به محتوای پویا و چندبعدی است.

در این بخش، فراگیران با نحوه‌ی تنظیم دقیق (Fine-tuning) مدل‌های چندوجهی برای کاربردهای خاص آشنا می‌شوند. توضیح داده می‌شود که پس از آموزش اولیه‌ی مدل با داده‌های عمومی، می‌توان آن را با داده‌های تخصصی‌تر (مثلاً تصاویر پزشکی، صنعتی یا ماهواره‌ای) تنظیم کرد تا عملکرد دقیق‌تری داشته باشد. همچنین روش‌های انتقال یادگیری (Transfer Learning) و تکنیک‌های بهینه‌سازی داده برای کاهش هزینه‌ی آموزش معرفی می‌شوند. در این بخش، نمونه‌هایی از کاربردهای تخصصی مانند تحلیل تصاویر پزشکی، بازرسی صنعتی، تشخیص محصول در فروشگاه‌های آنلاین و جست‌وجوی تصویری هوشمند بررسی خواهد شد. هدف آن است که شرکت‌کنندگان با فرآیند عملی بومی‌سازی مدل‌های چندوجهی برای صنایع مختلف آشنا شوند.

در بخش پایانی، روش‌های نوین آموزش مدل‌های مولتی‌مدال با استفاده از بازخورد ترجیحی (Preference-based Learning) معرفی می‌شوند. روش‌هایی مانند DPO (Direct Preference Optimization)، GRPO (Generalized Reward Preference Optimization) و MPO (Model Preference Optimization) توضیح داده می‌شوند که در نسل جدید مدل‌های زبانی و بینایی برای بهبود کیفیت پاسخ‌ها به‌کار می‌روند. در این روش‌ها، به‌جای تکیه بر برچسب‌های قطعی، مدل بر اساس ترجیحات انسانی یا سیگنال‌های کیفی یاد می‌گیرد که کدام پاسخ مطلوب‌تر است. در این بخش، شرکت‌کنندگان درک می‌کنند چگونه این الگوریتم‌ها به مدل‌ها کمک می‌کنند تا در تعامل با کاربران، پاسخ‌هایی طبیعی‌تر، دقیق‌تر و منطبق با انتظارات انسانی ارائه دهند.

7-آینده هوش مصنوعی مولد و تحول در کسب‌وکارها

در این بخش، نقش مدل‌های مولد (Generative Models) به‌عنوان نیروی محرک نوآوری در صنایع مختلف مورد بررسی قرار می‌گیرد. توضیح داده می‌شود که این مدل‌ها چگونه می‌توانند ایده‌پردازی، طراحی محصول، تولید محتوای خلاقانه و توسعه‌ی خدمات جدید را سرعت ببخشند. از تولید تصویر و ویدیو گرفته تا طراحی محصول و نگارش خودکار متن، مدل‌های مولد در حال دگرگون‌سازی فرآیندهای سنتی نوآوری هستند. در این بخش نمونه‌هایی از صنایع مختلف مانند مد، سرگرمی، آموزش و فناوری بررسی می‌شود تا نشان داده شود که هوش مصنوعی مولد چگونه می‌تواند به‌عنوان شریک خلاق انسان عمل کرده و زمان توسعه‌ی محصولات را به‌شدت کاهش دهد.

در این بخش، کاربرد هوش مصنوعی مولد در حوزه‌های بازاریابی، تولید محتوا و رسانه تشریح می‌شود. مدل‌های مولد اکنون قادرند تصاویر تبلیغاتی، ویدیوهای کوتاه، شعارهای تبلیغاتی و حتی سناریوهای کمپین را به‌صورت خودکار ایجاد کنند. در این درس توضیح داده می‌شود که چگونه برندها از این فناوری برای خلق تجربه‌های شخصی‌سازی‌شده، تست سریع ایده‌ها و کاهش هزینه‌های تولید محتوا استفاده می‌کنند. همچنین به مسئله‌ی «اتوماسیون خلاقیت» پرداخته می‌شود؛ جایی که انسان نقش هدایت‌گر و ناظر را بر عهده دارد و ماشین ابزار اجرای خلاقیت را فراهم می‌کند. هدف این بخش، آشنایی با مرز جدید همکاری انسان و ماشین در صنایع خلاق است.

در این بخش، نقش هوش مصنوعی مولد در تحول فرآیند تصمیم‌سازی سازمانی بررسی می‌شود. توضیح داده می‌شود که چگونه مدل‌های مولد می‌توانند بر اساس داده‌های تاریخی، تحلیل‌های پیش‌بینانه و سناریوسازی‌های مجازی، مدیران را در تدوین استراتژی‌های دقیق‌تر یاری دهند. کاربردهایی مانند شبیه‌سازی بازار، پیش‌بینی واکنش مشتریان، تولید گزارش‌های تحلیلی و طراحی مدل‌های تصمیم‌یار معرفی می‌شوند. این بخش نشان می‌دهد که هوش مصنوعی مولد صرفاً ابزاری برای تولید محتوا نیست، بلکه می‌تواند به ابزاری راهبردی در تصمیم‌سازی داده‌محور تبدیل شود که بهره‌وری و دقت تصمیمات مدیریتی را افزایش می‌دهد.

در این بخش، تغییرات ساختاری در مدل‌های کسب‌وکار ناشی از ظهور هوش مصنوعی مولد تحلیل می‌شود. توضیح داده می‌شود که چگونه شرکت‌ها در حال گذار از مدل‌های سنتی فروش محصول به سمت مدل‌های مبتنی بر API، اشتراک‌محور (Subscription) و خلق ارزش از طریق داده هستند. پلتفرم‌هایی مانند OpenAI، Midjourney و Runway نمونه‌هایی از شرکت‌هایی‌اند که مدل‌های درآمدی خود را بر پایه دسترسی به مدل‌های مولد و سرویس‌های هوشمند بنا کرده‌اند. همچنین فرصت‌های جدید برای استارتاپ‌ها در حوزه‌هایی مانند تولید محتوای خودکار، طراحی خلاقانه، آموزش و خدمات مشاوره مبتنی بر هوش مصنوعی بررسی می‌شود.

در بخش پایانی، به چالش‌های اخلاقی و اجتماعی ناشی از گسترش هوش مصنوعی مولد پرداخته می‌شود. موضوعاتی مانند مالکیت داده و محتوای تولیدشده، سوگیری الگوریتمی، انتشار اطلاعات نادرست (Hallucination) و حفظ حریم خصوصی بررسی می‌شوند. همچنین نقش سیاست‌گذاران و نهادهای تنظیم‌گر در تعریف چارچوب‌های حقوقی و اخلاقی برای استفاده‌ی مسئولانه از این فناوری مورد بحث قرار می‌گیرد. در این بخش، مفهوم «اعتماد در هوش مصنوعی» معرفی شده و راهکارهایی برای افزایش شفافیت، توضیح‌پذیری و کنترل انسانی بر خروجی مدل‌ها مطرح می‌شود. هدف این قسمت، ایجاد درکی متعادل میان ظرفیت‌های عظیم هوش مصنوعی مولد و مسئولیت‌های اجتماعی ناشی از به‌کارگیری آن است.

8-تأثیر LLM بر بازار کار و مدل‌های کسب‌وکار

در این بخش، نقش مدل‌های زبانی بزرگ در اتوماسیون وظایف دانشی (Knowledge Work Automation) بررسی می‌شود. توضیح داده می‌شود که چگونه LLMها توانسته‌اند بسیاری از فعالیت‌های فکری مانند نوشتن گزارش، تحلیل داده، خلاصه‌سازی متون، پاسخ‌گویی به مشتریان و حتی تولید کد را به‌صورت خودکار انجام دهند. این تحول موجب کاهش قابل‌توجه هزینه‌های عملیاتی، افزایش سرعت انجام کارها و بهبود دقت در تصمیم‌گیری‌های سازمانی شده است. در این بخش همچنین به مفهوم «هوش افزوده» (Augmented Intelligence) اشاره می‌شود؛ جایی که هدف جایگزینی انسان نیست، بلکه ارتقای بهره‌وری از طریق همکاری انسان و ماشین است.

در این بخش، فرصت‌های شغلی نوظهور ناشی از گسترش LLMها معرفی می‌شود. ظهور نقش‌هایی مانند Prompt Engineer (مهندس طراحی پرامپت)، AI Trainer (مربی هوش مصنوعی)، Data Curator (گردآورنده داده) و Ethics Officer (مسئول اخلاق در هوش مصنوعی) از جمله نمونه‌های جدیدی هستند که در سازمان‌های پیشرو در حال شکل‌گیری‌اند. توضیح داده می‌شود که این مشاغل چگونه به مهارت‌های ترکیبی نیاز دارند؛ ترکیبی از درک زبان، منطق، داده و تفکر طراحی. هدف این بخش، آشنا کردن فراگیران با مسیرهای شغلی آینده و مهارت‌هایی است که برای همکاری مؤثر با مدل‌های زبانی بزرگ مورد نیاز خواهند بود.

در این بخش، تحولات ساختاری در مدل‌های درآمدی و زنجیره‌ی ارزش کسب‌وکارها بررسی می‌شود. مدل‌های زبانی بزرگ اکنون به‌عنوان سرویس (LLM-as-a-Service) از طریق API در اختیار کسب‌وکارها قرار می‌گیرند و این امر باعث شده شرکت‌ها بتوانند بدون نیاز به ساخت مدل از صفر، از قابلیت‌های زبانی هوش مصنوعی در محصولات خود استفاده کنند. نمونه‌هایی از پلتفرم‌های موفق مانند OpenAI، Anthropic و Cohere معرفی می‌شوند که مدل‌های خود را در قالب خدمات اشتراکی یا مصرف‌محور ارائه می‌دهند. در این بخش، مفهوم اقتصاد API، مدل‌های اشتراک‌محور و فرصت‌های تجاری ناشی از ادغام LLMها در محصولات سازمانی تشریح می‌شود.

این بخش به تحلیل تأثیر LLMها بر بهره‌وری نیروی کار و ساختار سازمان‌ها اختصاص دارد. توضیح داده می‌شود که چگونه هوش مصنوعی مولد می‌تواند زمان انجام وظایف پیچیده را کاهش دهد و امکان تمرکز کارکنان بر فعالیت‌های خلاقانه‌تر و تصمیم‌محورتر را فراهم کند. همچنین به تحول در زنجیره‌ی ارزش سازمانی اشاره می‌شود، جایی که بخش‌هایی مانند خدمات مشتری، بازاریابی، منابع انسانی و توسعه‌ی محصول با ادغام LLMها کارآمدتر و داده‌محورتر می‌شوند. هدف از این بخش، درک چگونگی گذار از سازمان‌های سنتی به سازمان‌های هوشمند و سازگار با عصر هوش مصنوعی است.

در بخش پایانی، پیامدهای کلان اقتصادی و اجتماعی ناشی از گسترش LLMها مورد بررسی قرار می‌گیرد. توضیح داده می‌شود که چگونه کشورها و سازمان‌هایی که سریع‌تر به این فناوری مجهز شوند، از مزیت رقابتی جهانی برخوردار خواهند شد. هم‌زمان، جابه‌جایی گسترده‌ای در مهارت‌های مورد نیاز بازار کار در حال وقوع است؛ مهارت‌های فنی، تحلیلی و بین‌رشته‌ای جایگزین فعالیت‌های تکراری و اجرایی می‌شوند. همچنین موضوعاتی مانند آموزش مداوم، بازآموزی نیروهای انسانی و نقش دولت‌ها در سازگاری اجتماعی با تحولات هوش مصنوعی مطرح می‌شود. هدف این بخش، ایجاد دیدی کلان نسبت به تأثیرات بلندمدت LLMها بر اشتغال، رقابت و توسعه‌ی پایدار است.

9-اقتصاد مدل‌های زبانی بزرگ و هوش مصنوعی

در این بخش، ساختار هزینه‌ای مدل‌های زبانی بزرگ از مرحله‌ی آموزش تا استقرار مورد بررسی قرار می‌گیرد. توضیح داده می‌شود که توسعه‌ی LLMها نیازمند حجم عظیمی از داده‌های متنی، توان پردازشی بالا و مصرف قابل‌توجه انرژی است. هزینه‌های مرتبط با گردآوری و پاک‌سازی داده، خرید یا اجاره‌ی GPUها و زیرساخت‌های ابری، و نگهداشت مدل در طول زمان تشریح می‌شود. همچنین به چالش‌های زیست‌محیطی ناشی از مصرف انرژی مراکز داده اشاره می‌شود. هدف این بخش، ایجاد درکی واقع‌گرایانه از منابع مالی، فنی و زیرساختی مورد نیاز برای تولید و پشتیبانی از مدل‌های زبانی در مقیاس صنعتی است.

در این بخش، مدل‌های کسب درآمد از LLMها تحلیل می‌شوند. توضیح داده می‌شود که شرکت‌های پیشرو در حوزه‌ی هوش مصنوعی، خدمات خود را بر پایه‌ی API ارائه می‌کنند که کاربران می‌توانند به‌صورت مصرف‌محور یا اشتراک‌ماهانه از آن بهره‌مند شوند. این الگو موجب شده است که مدل‌های زبانی بزرگ نه‌تنها ابزار تحقیقاتی، بلکه زیرساخت اقتصادی جدیدی برای صنایع نرم‌افزاری و خدمات دیجیتال باشند. نمونه‌هایی از مدل‌های درآمدی مانند Pay-as-you-go، اشتراک سازمانی (Enterprise Subscription) و مدل هم‌افزای داده (Data Partnership) معرفی می‌شود. هدف از این بخش، درک سازوکار اقتصادی و جریان درآمدی ناشی از تجاری‌سازی LLMهاست.

در این بخش، پویایی رقابت میان شرکت‌های بزرگ فناوری (Big Tech) و جوامع متن‌باز (Open Source) بررسی می‌شود. توضیح داده می‌شود که مدل‌های عظیمی مانند GPT، Gemini و Claude در اختیار شرکت‌های چندملیتی با منابع کلان مالی و زیرساختی هستند، در حالی که مدل‌های متن‌باز مانند LLaMA، Mistral و Falcon تلاش می‌کنند دسترسی گسترده‌تر و هزینه‌ی کمتر را فراهم کنند. موضوع اثرات مقیاس (Economies of Scale) تشریح می‌شود که چگونه شرکت‌های بزرگ به دلیل دسترسی به داده، توان پردازشی و بازار گسترده، مزیت رقابتی انحصاری دارند. در مقابل، پروژه‌های متن‌باز با تمرکز بر شفافیت، همکاری جمعی و نوآوری باز، نقش مهمی در توازن قدرت فناوری ایفا می‌کنند.

در این بخش، تأثیر LLMها بر بهره‌وری و بازده اقتصادی صنایع بررسی می‌شود. مدل‌های زبانی بزرگ در حال تغییر روش‌های کار در بخش‌هایی مانند خدمات مالی، آموزش، سلامت، بازاریابی، تولید محتوا و دولت الکترونیک هستند. این مدل‌ها با کاهش زمان انجام وظایف، بهبود تصمیم‌گیری و حذف مراحل تکراری، موجب افزایش بهره‌وری نیروی کار و رشد اقتصادی می‌شوند. مثال‌هایی از کاربرد LLM در تحلیل داده‌های مالی، طراحی خودکار محتوا، پشتیبانی مشتریان و تسهیل تحقیق علمی ارائه می‌شود. هدف این بخش، نشان دادن چگونگی انتقال ارزش اقتصادی از سطح فناوری به سطح واقعی صنایع و کسب‌وکارهاست.

در بخش پایانی، ابعاد کلان اقتصادی و سیاسی هوش مصنوعی مورد بررسی قرار می‌گیرد. توضیح داده می‌شود که چگونه کشورها و بلوک‌های اقتصادی بزرگ (مانند آمریکا، اتحادیه اروپا و چین) در حال رقابت برای تسلط بر زیرساخت‌های هوش مصنوعی و مدل‌های زبانی هستند. موضوعاتی مانند سرمایه‌گذاری‌های کلان خطرپذیر (Venture Capital)، حمایت‌های دولتی و نقش تنظیم‌گری در شفافیت و امنیت داده‌ها مورد بحث قرار می‌گیرد. در این بخش همچنین چالش‌های مرتبط با مالکیت داده، کنترل فناوری، امنیت سایبری و موازنه‌ی قدرت جهانی بررسی می‌شود. هدف این است که شرکت‌کنندگان درک کنند هوش مصنوعی صرفاً یک فناوری نیست، بلکه به یکی از محورهای اصلی رقابت ژئوپولیتیکی و اقتصادی قرن بیست‌ویکم تبدیل شده است.

گواهی دوره :

مدرسان دوره :

  • دکتری هوش مصنوعی
  • مدیر عامل شرکت دانش بنیان ساعیان ارتباط
  • مجری پروژه مرکز تماس هوش‌مصنوعی اسنوا
  • مجری پروژه مرکز تماس هوش مصنوعی فرودگاه مهرآباد
  • مجری پروژه مرکز تماس هوش مصنوعی بانک ملبورن استرالیا
  • مدیر فنی LLM دانشگاه صنعتی شریف
  • مدیر LLM سکوی ملی هوش مصنوعی
  • مدرس یادگیری عمیق و LLM
  • مشاور هوش مصنوعی هلدنیگ فاخر
  • مشاور هوش مصنوعی آدوراطب (عبیدی)
  • دانشمند ارشد داده در فیلیمو/آپارات
  • مدیر تیم مهندسی هوش مصنوعی
  • پژوهشگاه فناوری ارتباطات و اطلاعات پیشرفته دانشگاه صنعتی شریف
  • مدیر فنی مهندسی هوش مصنوعی سکوی ملی هوش مصنوعی
  • مهندس اسبق داده در فناوری ابری پارس‌پک
  • دانشمند اسبق داده در موتور هوش مصنوعی خبرفارسی
  • مشاور هوش مصنوعی شرکت آلمانی زبراکت
  • دکتری مهندسی صنایع و عضو هیات علمی دانشگاه
  • متخصص در حوزه استراتژی کاربست هوش مصنوعی و معماری اکوسیستم‌های دیجیتال
  • مشاور پیاده سازی طرح های تحول دیجیتال و هوش مصنوعی در شرکت بهاران سیستم
  • مشاور طرح ریزی استراتژی تحول دیجیتال در منطقه ویژه اقتصادی سلفچگان
  • سخنران کنفرانس‌های علمی در زمینه مدیریت در عصر هوش مصنوعی
  • رئیس هیأت مدیره استودیو نویسندگی مصیر هم‏بنیان‌ گذار پلتفرم کوچینو
  • مشاور پروژه‌های پیاده سازی هوش مصنوعی در سازمان های دفاعی
  • پژوهشگر در حوزه حکمرانی در عص هوش مصنوعی
    مشاور طرح ریزی برنامه توسعه استارتاپ های هوش مصنوعی در پارک های علم و فناوری
  • مشاور پروژه‌ تحول دیجیتال و پلتفرم‌های سازمانی AI در شرکت بیمه کوثر 
  • پژوهشگر کاربردی هوش مصنوعی در اداره سازمان‌های پیچیده
  • دکتری فناوری اطلاعات با گرایش هوش مصنوعی
  • مدیر پروژه‌های متعدد ملی هوش مصنوعی
  • پياده سازی و استقرار سامانه های هوشمند عملیاتی در دستگاه‌های اجرایی متعدد
  • مدیر پروژه چندین طرح عتفی-پژوهشی وزارت علوم مبتنی بر هوش مصنوعی
  • مدیر پروژه‌های ملی و عملیاتی در حوزه کاربرد هوش مصنوعی در علم حقوق و قضا
  • برگزیده بنیاد ملی نخبگان
  • برگزیده دومین جشنواره ملی شهید بهشتی
  • نویسنده چندین مقاله ژورنالی و کنفرانسی ملی و بین‌المللی
  • نویسنده چندین کتاب در زمینه کاربرد هوش مصنوعی در علم حقوق و قضا از جمله کتاب تنقیح هوشمند قوانین (مبانی، بایسته‌ها، روش‌ها و مدل‌ها) (اداره چاپ و انتشار مرکز پژوهش‌های مجلس شورای اسلامی) و کتاب دستیار هوشمند قضایی: گامی نوآورانه در تصمیم گیری قضایی (پژوهشگاه قوه قضاییه)
  • دکتری مهندسی صنایع
  • بنیان‌گذار و مدیر عامل شرکت نکسینو
  • مجری پروژه دستیار هوشمند وزارت تعاون، کار و رفاه اجتماعی
  • مشاور بلوغ هوش مصنوعی در بانک شهر
  • مشاور هوش مصنوعی در قوه قضاییه
  • مدیر چندین پروژه هوش مصنوعی در همراه اول
  • مشاور کسب‌وکارهای پلتفرمی و هوشمندسازی در گروه مدلل
  • مشاور توسعه هوش مصنوعی در گروه گلرنگ
  • بنیان‌گذار چندین محصول در حوزه هوش مصنوعی
  • نویسنده بیش از ۳۰ مقاله بین‌المللی (ISI) در حوزه هوش مصنوعی و علم داده
  • برگزیده بنیاد ملی نخبگان
  • کارشناسی ارشد مهندسی کامپیوتر
  • مدیر فنی مجموعه دانش‌ بنیان شناسا
  • مدرس مطرح دوره‌های بینایی ماشین و یادگیری عمیق: دانشگاه تهران، صنعتی شریف و امیرکبیر

محصول: جامع ترین دوره مدل های زبانی بزرگ (LLM) و کاربرد هوش مصنوعی مولد

جلسه اول رایگان دوره LLM

سوالات متداول :

تمام مباحث آموزشی به صورت آنلاین تعاملی (Live) برگزار می‌شود و ویدیوها پس از هر جلسه در پنل اختصاصی شرکت‌کنندگان قابل مشاهده خواهد بود که در یک مسیر آموزشی پله پله باهم پیش برویم. یک کلاس 6 ساعته حضوری هم نیزطبق برنامه زمانی با حضور تعدادی از اساتید برگزار خواهد شد

این دوره به معرفی، درک عمیق و کاربرد عملی مدل‌های زبانی بزرگ (LLMs) مانند ChatGPT، Claude و Gemini در پروژه‌های واقعی می‌پردازد. دانش‌پذیران یاد می‌گیرند چگونه از هوش مصنوعی مولد در تحلیل داده، تولید محتوا، طراحی سیستم‌های هوشمند و اتوماسیون استفاده کنند.

در این دوره با مفاهیم بنیادی هوش مصنوعی مولد (Generative AI) و کاربردهای متنوع آن آشنا می‌شویم. ابتدا معرفی جامعی از مدل‌های تولید متن و تصویر ارائه شده و سپس ساختار و معماری مدل‌های زبانی بزرگ (LLM) به‌طور دقیق بررسی می‌شود.

در ادامه، به سراغ فریمورک پرکاربرد Langchain می‌رویم و نحوه ساخت اپلیکیشن‌هایی مانند چت‌بات‌ها، سیستم‌های جست‌وجو، سیستم‌های توصیه‌گر، تحلیل احساسات، طبقه‌بندی متن و تصویر، و همچنین پیاده‌سازی سیستم‌های RAG را می‌آموزیم.

یکی از بخش‌های کلیدی این دوره پرامپت‌نویسی است که شامل تکنیک‌های پایه و پیشرفته برای بهبود خروجی مدل‌های بزرگ زبانی و مدل‌های تولید‌کننده تصاویر می‌شود. علاوه بر این، با نحوه استفاده از مدل‌های تجاری مانند مدل‌های OpenAI و Anthropic , … از طریق api و همچنین مدل‌های متن‌باز نظیر Llama 3 از طریق ابزارهایی مانند OLLAMA آشنا خواهیم شد.

در بخش دیگری از دوره، با مفهوم امبدینگ و کاربردهای آن در خوشه‌بندی، طبقه‌بندی، و مصورسازی داده‌ها آشنا می‌شوید. همچنین نحوه کار با دیتابیس‌های برداری مانند Faiss و Chromadb برای ذخیره‌سازی و بازیابی داده‌ها را یاد می‌گیرید.

یکی از محورهای اصلی این دوره، تمرکز جدی بر طراحی و توسعه RAG است. در این بخش، تکنیک‌های پیشرفته‌ای برای بهبود عملکرد و کارایی این سیستم‌ها ارائه خواهد شد.

در پایان دوره، چند پروژه عملی اجرا خواهد شد که شامل تحلیل احساسات، استخراج اطلاعات ساختارمند از اسناد، و پیاده‌سازی سیستم‌های Multi-Agent با استفاده از کتابخانه Langgraph خواهد بود. همچنین بخش ویژه‌ای به Fine-Tune کردن مدل‌های زبانی با استفاده از زیرساخت‌های OpenAI اختصاص داده می‌شود.

این دوره به شما کمک می‌کند تا با ابزارها و تکنیک‌های پیشرفته در دنیای هوش مصنوعی آشنا شوید و مهارت‌های عملی لازم برای طراحی، توسعه و اجرای پروژه‌های پیشرفته را به دست آورید

بله این دوره برای کسانی طراحی شده که آشنایی کامل با برنامه‌نویسی پایتون دارند و می‌خواهند وارد دنیای هوش مصنوعی مولد شوند.

برای شرکت در این دوره، آشنایی اولیه با زبان برنامه‌نویسی پایتون کافی است. نیازی نیست که توسعه‌دهنده حرفه‌ای پایتون باشید.

اگر پیش‌تر دوره‌ای در حوزه هوش مصنوعی گذرانده باشید، استفاده شما از محتوای این کلاس بیشتر خواهد بود، اما این مورد ضروری نیست.

برای کمک به تمام شرکت‌کنندگان در ابتدای دوره، یک دوره 40 ساعته بصورت آفلاین و کاملا رایگان در قالب محتوای ویدیویی که مروری جامع و کاربردی بر اصول پایتون مقدماتی ارائه ‌شود و شرکت‌کنندگان مهارت‌های لازم برای ادامه دوره را به دست آورند و بدون هیچ مشکلی از مباحث استفاده کنند، در اختیار شما قرار میگیرد.

این دوره برای طیف گسترده‌ای از مخاطبان طراحی شده است، از جمله:

علاقه‌مندان به هوش مصنوعی و یادگیری ماشین

برنامه‌نویسان و تحلیلگران داده

مدیران محصول و تصمیم‌گیران سازمانی

پژوهشگران، اساتید و دانشجویان

دوره شامل ۱۵۰ ساعت آموزش تخصصی است که به‌صورت ترکیبی از جلسات نظری و تعاملی، کارگاه‌های عملی با پروژه‌های واقعی، تمرین‌های کدنویسی و چالش‌های کاربردی برگزار می‌شود.

برای شرکت در این دوره علاوه بر ساعات آموزشی در هفته، حداقل روزی یک تا یکساعت و نیم برای مرور مطالب و دستیابی به اهداف مورد نیاز می‌باشد.

بله، در گروه تلگرامی دانش پذیران، استاد و پشتیبان پاسخگوی سوالات شما خواهند بود. در طی دوره نیز امکان پرسش و پاسخ وجود دارد و جلسات آنلاین رفع اشکال نیز با حضور استاد و پشتیبان برگزار خواهد شد.

بله، دوره کاملاً پروژه‌محور طراحی شده و شرکت‌کنندگان در پایان، یک یا چند پروژه واقعی در حوزه کاربرد LLMها در صنایع مختلف (مثل آموزش، سلامت، مالی، بازاریابی و…) ارائه می‌دهند.

تدریس این دوره توسط مجموعه ای از اساتید برجسته دانشگاه تهران و متخصصان فعال در صنعت مدل های زبانی بزرگ هوش مصنوعی مولد انجام می‌شود که لیست اساتید در همین صفحه همراه با افیلیشن درج شده است.

بله، بعد از گذراندن موفق دوره و تحویل پروژه، گواهینامه ی دوزبانه و قابل استعلام از دانشگاه تهران را دریافت خواهید کرد.

در طول دوره، یک پشتیبان دارید که به‌صورت منظم ویدیوی جلسات را بعد از 24 الی 48 ساعت بارگزاری و پروژه ها را در تاریخ های مقرر بنا به صلاحدید اساتید دریافت می‌کند و راه ارتباطی شما با اساتید و مسئولین اجرایی دوره می‌باشد.

بله، دانش‌پذیران تا یکسال پس از پایان دوره می‌توانند از طریق کانال اختصاصی، انجمن گفتگو و هم اندیشی با اساتید و پشتیبانی آموزشی بهره‌مند شوند و ویدیوهای بارگزاری شده را بررسی نمایند.

بله. بسیاری از مدیران کسب‌وکارها، تیم‌های محتوا، بازاریابان و توسعه‌دهندگان از این دوره برای ارتقای مهارت‌های تیم خود استفاده می‌کنند.

برای اطلاع از جزییات شهریه دقیق دوره و تخفیفات ثبت‌نام با کارشناس مربوطه خانم صادقی با شماره تماس 09377516759 ارتباط برقرار نمائید.

اعضای انجمن ملی هوش مصنوعی ایران، دانشجویان و شرکت‌کنندگان دوره‌های آزاد تهران‌دیتا و فارغ التحصیلان دانشگاه تهران شامل تخفیف ویژه خواهند شد.

بله، علاوه بر شرایط متعارف تعیین شده توسط مجموعه، شما امکان پرداخت اقساط متناسب با بودجه ی خودتان (افزایش تعداد اقساط و کاهش پیش پرداخت) را هم دارید.

در پایان دوره، شرکت‌کنندگان توانایی طراحی و استفاده از مدل‌های زبانی بزرگ در پروژه‌های شخصی یا سازمانی، ساخت ابزارهای مبتنی بر هوش مصنوعی مولد، تحلیل و شخصی‌سازی و استقرار LLMها را خواهند داشت.

بله، در طول دوره، شرکت‌کنندگان امکان برگزاری دورهمی ها، نشست‌های حضوری و رویدادهای اختصاصی را با هماهنگی اساتید و پشتیبان خواهند داشت. این جلسات فرصتی ارزشمند برای ملاقات با اساتید، کارشناسان و فعالان صنعت هوش مصنوعی است و بستر مناسبی برای شبکه‌سازی حرفه‌ای و همکاری‌های علمی و شغلی آینده فراهم می‌کند.

بله، تهران‌دیتا و مجموعه همکاران آموزشی در حوزه هوش مصنوعی، امکان همکاری با دانش‌پذیران برتر را بررسی می‌کنند. افرادی که عملکرد برجسته‌ای در پروژه‌های پایانی و ارزیابی‌های فنی داشته باشند، می‌توانند برای همکاری پژوهشی، تدریس، یا فعالیت در پروژه‌های واقعی هوش مصنوعی دعوت شوند.

قطعاً بله، در این دوره از به‌روزترین نسخه کتابخانه‌ها، ابزارها و نرم‌افزارهای تخصصی حوزه LLM و هوش مصنوعی مولد استفاده می‌شود؛ از جمله LangChain، OpenAI API، Hugging Face، Google Colab، Streamlit و ابزارهای تحلیل داده و پردازش زبان طبیعی. تمام سرفصل‌های کلیدی و مهارت‌های کاربردی روز دنیا در طراحی این دوره گنجانده شده است تا شرکت‌کنندگان برای ورود به صنعت هوش مصنوعی آمادگی کامل داشته باشند.

بله، افرادی که عملکرد برجسته در پروژه‌ها داشته باشند، می‌توانند از اساتید یا مدیران علمی دوره توصیه‌نامه رسمی دریافت کنند.

تمام تمرین‌ها به‌گونه‌ای طراحی شده‌اند که با استفاده از Google Colab، Kaggle Notebook و سرویس‌های ابری رایگان قابل اجرا باشند.

بله، شرکت‌کنندگان برتر در لیست استعدادهای برتر مجموعه قرار گرفته و برای همکاری در پروژه‌های پژوهشی یا صنعتی معرفی می‌شوند.

بله، در پایان دوره، به درخواست دانش‌پذیران جلسات کوچینگ حرفه‌ای برای بررسی مسیر شغلی در حوزه AI و LLM برگزار می‌شود.

بله، برای آشنایی عملی با زیرساخت‌های استقرار RAG در مقیاس سازمانی، از Deepset / Deefi استفاده می‌شود. شرکت‌کنندگان نحوه ساخت Pipelineهای پرسش‌وپاسخ، ایندکس‌گذاری برداری، و تنظیم مدل‌های LLM را به‌صورت عملی یاد می‌گیرند.

قطعاً. در چندین ماژول از دوره به‌صورت گام‌به‌گام طراحی و توسعه سیستم‌های Retrieval-Augmented Generation (RAG) انجام می‌شود. از مرحله آماده‌سازی داده و ساخت Embedding تا اتصال به پایگاه داده برداری (مثل Faiss، ChromaDB) و بهینه‌سازی دقیق عملکرد.

بله، همه تمرین‌ها و پروژه‌ها با استفاده از APIهای واقعی ChatGPT، Claude، Gemini و Llama 3 انجام می‌شوند. همچنین یاد می‌گیرید چطور با کلیدهای API، تنظیمات Token و context window، و طراحی pipelineهای چندمرحله‌ای کار کنید.

بله، عملا دوره مدل‌های زبانی بزرگ و کاربرد هوش مصنوعی مولد، دوره تکمیلی دوره جامع علم داده و هوش مصنوعی هست و اگر تمایل داشته باشید آموخته‌های دوره جامع علم داده و هوش مصنوعی را عملیاتی‌تر کنید، این دوره به شدت توصیه می‌شود.

اگه تازه‌کار هستید و میخواید یاد بگیرید چطور با داده‌ها کار کنید، تحلیلشون کنید و مدل‌های پیش‌بینی بسازید،
دوره علم داده و هوش مصنوعی براتون عالیه.
اما اگه پایه‌ها رو بلد هستید و تمایل دارید بدانید هوش‌هایی مثل ChatGPT چطور کار می‌کنن و چطور می‌تونی ازشون استفاده یا حتی مدل مشابه بسازید،
باید سراغ دوره مدل‌های زبانی بزرگ و هوش مصنوعی مولد بروید.
به منظور حل این مسئله، مشاوره تخصصی با اساتید ما بر اساس آموخته های پیشین شما بصورت کاملا رایگان ارائه میشود که میتوانید متناظر با جایگاه فعلیتان دوره مورد نظر را انتخاب کنید. لذا برای دریافت اطلاعات بیشتر با شماره تماس ۰۹۳۷۷۵۱۶۷۵۹ در ارتباط باشید.

دوره «علم داده و هوش مصنوعی» مبانی کار با داده، تحلیل آماری، یادگیری ماشین و کاربردهای عمومی هوش مصنوعی را آموزش می‌دهد و برای افرادی مناسب است که می‌خواهند پایه‌ای و گام‌به‌گام وارد این حوزه شوند.
در مقابل، دوره «مدل‌های زبانی بزرگ و کاربرد هوش مصنوعی مولد» بر مدل‌هایی مانند ChatGPT و هوش‌های مولد تمرکز دارد و مناسب افرادی است که با مفاهیم اولیه هوش مصنوعی آشنا هستند و می‌خواهند به صورت تخصصی با مدل‌های زبانی و ابزارهای تولید محتوا توسط هوش مصنوعی کار کنند.

مشتریان تهران دیتا :

اشتراک گذاری:
برچسب‌ها: