آخرین کد سال با نرخ 1404 و بدون افزایش قیمت در حال تکمیل ظرفیت است
زمان برگزاری:
شروع دوره: 26 بهمن ماه 1404
روزهای برگزاری : یکشنبه و سه شنبه ساعت ۱۷ الی ۲۱
نحوه برگزاری: آنلاین
مدت زمان دوره: 150 ساعت
پیش ثبت نام :
اهداف دوره :
شغلهای مرتبط با مدلهای زبانی بزرگ و هوش مصنوعی مولد طی سالیان اخیر در جهان و ایران به شدت مورد توجه قرار گرفته و یکی از جذابترین و پردرآمدترین حوزههای آینده علم داده و یادگیری ماشین محسوب میشوند. با وجود جذابیت بالای این زمینه شغلی، گستردگی و تنوع تخصصهای مورد نیاز برای موفقیت در این حوزه یک چالش بزرگ برای علاقهمندان ایجاد کرده است که در بسیاری موارد باعث سردرگمی افراد میگردد.
مجموعه تهران دیتا به عنوان یک مرجع حرفهای در حوزه آموزشهای تخصصی داده و هوش مصنوعی، در این دوره اقدام به آموزش تمامی مهارتها و دانشهای مورد نیاز جهت تربیت نیروهای متخصص و توانمند در زمینه مدلهای زبانی بزرگ (LLM) مینماید.
این دوره در چهار سرفصل اصلی شامل موارد زیر طراحی شده است :
- مبانی یادگیری عمیق و مقدمات مدلهای زبانی بزرگ
- معماری، آموزش و بهکارگیری LLM
- توسعه پیشرفته، پرامپتنویسی و روشهای RAG
- کاربردها، اقتصاد و آینده هوش مصنوعی مولد
در تمامی این سرفصلها تلاش میشود تا با رویکردی پروژهمحور و با تکیه بر دادهها و نمونههای واقعی از صنایع مختلف کشور، آموزش به شکلی عمیق، عملی و کاربردی برای دانشپذیران ارائه گردد.
مهمترین اهداف این دوره به شرح زیر است:
- تربیت نیروی متخصص و کاربلد در زمینه مدلهای زبانی بزرگ (LLM)
- آشنایی عمیق و کاربردی با تمامی مباحث مرتبط با LLM، از مبانی تا کاربردهای پیشرفته
- استفاده از پروژهها و دادههای واقعی صنایع مختلف (مانند بانکداری، سلامت، آموزش و کسبوکارهای دیجیتال) به منظور افزایش تسلط و تجربه عملی دانشپذیران
- شناسایی استعدادهای برتر دوره و معرفی به صنعت در طول برگزاری دوره
مزایای دوره جامع مدلهای زبانی بزرگ (LLM) تهران دیتا :
- کار کردن با پروژهها و دادههای واقعی: در طول دوره از دادهها و سناریوهای واقعی صنایع مختلف (بانکی، سلامت، آموزش، استارتاپی و …) استفاده میشود تا یادگیری شما عمیق و کاربردی باشد.
- جامعیت دوره و پوششدهی سرفصلهای کلیدی LLM: تمامی مباحث مهم از مبانی یادگیری عمیق تا معماری، آموزش، بهینهسازی و کاربردهای پیشرفته مدلهای زبانی بزرگ در این دوره پوشش داده میشود.
- استفاده از جدیدترین ابزارها و چارچوبهای LLM: در کلاسها از آخرین نسخههای کتابخانهها و پلتفرمهای تخصصی مانند Hugging Face، LangChain و ابزارهای استقرار مدل استفاده میشود.
- جلسات Success Story و بررسی نمونههای موفق: در طول دوره پروژههای موفق جهانی و داخلی (Case Studies) معرفی و تحلیل میشوند تا تجربه عملی و مسیر واقعی پیادهسازی برای شما روشن شود.
- قابلیت بهکارگیری افراد برتر در پروژههای بزرگ LLM: نفرات برتر دوره این امکان را خواهند داشت که در پروژههای واقعی و صنعتی حوزه LLM بهکار گرفته شوند و مسیر حرفهای خود را سریعتر آغاز کنند.
- اعطای گواهینامه معتبر دو زبانه از دانشگاه تهران: در پایان دوره به دانشپذیران موفق، گواهینامهای معتبر به زبان فارسی و انگلیسی از دانشگاه تهران اعطا میشود.
مخاطبان دوره :
این دوره برای افراد مختلفی که در زمینه مدلهای زبانی و کاربردهای آنها در حوزههای مختلف فعالیت میکنند، مناسب است. مخاطبان اصلی این دوره شامل:
1. پژوهشگران و دانشجویان تحصیلات تکمیلی
اگر به دنبال درک عمیق مفاهیم مدلهای زبانی، معماریهای یادگیری ماشین و روشهای ارزیابی هستید تا پروژههای پژوهشی یا پایاننامههای خود را با رویکردهای بهروز تکمیل کنید، این دوره برای شما طراحی شده است.
2. توسعهدهندگان و متخصصان فنی (Data/ML/NLP Engineers)
اگر میخواهید در پروژههای عملی، توسعه اپلیکیشنها با مدلهای زبانی بزرگ (LLM) فعالیت کنید و با ابزارهایی مانند Langchain و Hugging Face آشنا شوید، این دوره مهارتهای کدنویسی و استقرار پروژهها را به شما میآموزد.
3. مدیران محصول و تصمیمگیران فنی/استراتژیک
اگر به دنبال کشف این هستید که چگونه مدلهای زبانی میتوانند ارزش کسبوکار شما را افزایش دهند و در نقشهراه محصول شما نقشی کلیدی داشته باشند، این دوره شما را با کاربرد، اقتصاد و حکمرانی LLM آشنا میکند.
4. بنیانگذاران استارتاپها و کارآفرینان AI-first
اگر در جستجوی فرصتهای نوآورانه و ایدههای جدید برای محصولات مبتنی بر LLM هستید و میخواهید هزینههای توسعه را کاهش دهید، این دوره به شما کمک میکند تا مدلهای کسبوکار جدید را با استفاده از LLM بسازید و مزیت رقابتی ایجاد کنید.
مسیر آموزشی دوره :
۱. سفر به دنیای یادگیری عمیق
- آشنایی با شبکههای عصبی (نورون، لایهها، وزنها)
- معماریهای پایه (MLP، CNN، RNN)
- الگوریتمهای آموزش (Backpropagation، Gradient Descent)
- درک مفاهیم Overfitting و Regularization
۲. معماری شگفتانگیز مدلهای زبانی بزرگ
- تکامل مدلهای زبانی: از n-gram تا Transformer
- نقش Attention و معماری ترنسفورمر
- چالش مقیاسپذیری (داده، پارامتر، توان پردازشی)
- توانمندیها و محدودیتهای LLM
۳. جادوی آموزش و بهکارگیری LLM
- پیشآموزش و Fine-tuning
- استفاده از دستورالعملها و ارزیابی مدلها
- APIها و پروتکلهای کاربردی
- استقرار مدلها در محیط واقعی
۴. پرواز با کاربردهای پیشرفته
- بهینهسازی مدلها برای استقرار
- توسعه اپلیکیشنهای هوشمند مبتنی بر LLM
- مدلهای چندوجهی (متن، تصویر، صدا)
- بازخورد انسانی و کاربردهای پیشرفته
۵. هنر خلق پرامپتهای هوشمند
- یادگیری مبتنی بر پرامپت (Prompt-based Learning)
- طراحی و بهینهسازی پرامپت
- معرفی Retrieval-Augmented Generation (RAG)
- کاربردهای سازمانی RAG
۶. فتح مرزهای نوین LLM
- چالش تولید اطلاعات نادرست و راهحلها (RLHF، DPO)
- کاهش هزینه پردازش (Mixture of Experts، Quantization)
- LLMهای چندرسانهای (متن + تصویر + ویدئو + صدا)
- مدلهای عامل هوشمند (Agents)
۷. آینده هوش مصنوعی مولد و تحول کسبوکار
- نقش LLM در خلق مدلهای کسبوکار نوین
- تحول تصمیمسازی دادهمحور در سازمانها
- فرصتها و تهدیدهای اخلاقی و تنظیمگری
- آینده بازار کار و نقشهای جدید (Prompt Engineer، AI Trainer و …)
۸. قله موفقیت با مهارتهای نهایی
- تحلیل اقتصاد LLM و مدلهای درآمدی مبتنی بر API
- بررسی پروژههای واقعی و Case Studyها
- درک رقابت Big Tech و Open Source
- آمادگی برای ورود به صنعت و پروژههای واقعی
سرفصل های دوره :
1-مروری بر یادگیری عمیق و مباحث پایهای
در این بخش، شرکتکنندگان با ساختار درونی شبکههای عصبی مصنوعی و نحوهی عملکرد آنها آشنا میشوند. توضیح داده میشود که هر شبکه از مجموعهای از نورونها تشکیل شده است که با دریافت ورودیها، وزندهی به آنها و عبور از تابع فعالسازی، خروجی نهایی را تولید میکنند. در این درس بهصورت مفهومی بیان میشود که نورونها چگونه مشابه سلولهای عصبی مغز انسان عمل میکنند، لایههای مختلف چه نقشی در انتقال و پردازش داده دارند، و چگونه تغییر وزنها در طول آموزش موجب یادگیری مدل میشود. هدف از این بخش، ایجاد درکی شهودی از پایهترین اجزای سازندهی مدلهای یادگیری عمیق است.
در این بخش، معماریهای رایج یادگیری عمیق معرفی و مقایسه میشوند. ابتدا شبکهی پرسپترون چندلایه (MLP) بهعنوان ساختار پایه برای دادههای عددی و جدولی توضیح داده میشود. سپس شبکههای کانولوشنی (CNN) که برای تحلیل و درک تصاویر بهکار میروند، مورد بررسی قرار میگیرند. در ادامه، شبکههای بازگشتی (RNN) و نقش آنها در پردازش دادههای دنبالهدار مانند متن و صدا تشریح میشود. در این بخش، تفاوت در نحوهی جریان اطلاعات در این سه نوع معماری، و معیارهای انتخاب هرکدام بر اساس نوع داده و هدف مسئله، بهطور عملی و مفهومی مرور خواهد شد.
این بخش به فرآیند یادگیری مدلها اختصاص دارد و نحوهی تنظیم پارامترها برای کاهش خطا را آموزش میدهد. مفاهیمی مانند پسانتشار خطا (Backpropagation) بهعنوان مکانیسم اصلی بازخورد در شبکه، و نزول گرادیان (Gradient Descent) بهعنوان روش پایه برای یافتن حداقل خطا به زبان ساده توضیح داده میشوند. همچنین مفهوم بیشبرازش (Overfitting) و خطرات آن در یادگیری مدلها بررسی شده و روشهای جلوگیری از آن مانند تفکیک دادهها، تنظیم منظمسازی و کنترل پیچیدگی مدل مطرح میگردد. هدف از این بخش، درک عملی فرآیند آموزش و توانایی تحلیل رفتار مدل در هنگام یادگیری است.
در این بخش، سه رویکرد اصلی یادگیری ماشین معرفی و مقایسه میشوند. در یادگیری نظارتشده، مدل با دادههایی آموزش میبیند که برچسب درست دارند، مانند تشخیص تصویر گربه یا سگ. در یادگیری بدوننظارت، دادهها بدون برچسب هستند و مدل باید بهصورت خودکار الگوها یا گروهبندیهای پنهان را کشف کند. در یادگیری تقویتی نیز مدل از طریق تجربه و بازخورد (پاداش یا جریمه) یاد میگیرد تا بهترین تصمیم را در شرایط مختلف اتخاذ کند. در این بخش، کاربردهای هر روش در مسائل واقعی و تفاوت بنیادین آنها از منظر نوع داده و هدف آموزشی تشریح میشود.
در بخش پایانی این درس، زیرساختها و ابزارهای مورد نیاز برای اجرای مدلهای یادگیری عمیق معرفی میشوند. نقش GPU بهعنوان واحد پردازش گرافیکی در تسریع محاسبات سنگین توضیح داده میشود و اهمیت آن در آموزش مدلهای بزرگ مورد بررسی قرار میگیرد. همچنین دو کتابخانهی پرکاربرد TensorFlow و PyTorch معرفی میشوند و نحوهی استفادهی آنها در طراحی، آموزش و استقرار مدلها بهصورت مقدماتی توضیح داده میشود. هدف از این بخش، آشنایی فراگیران با ابزارهای استاندارد و زیرساختهای عملیاتی مورد نیاز برای کار با مدلهای یادگیری عمیق است.
2-مقدمهای بر مدلهای زبانی بزرگ
در این بخش، سیر تاریخی و فنی تکامل مدلهای زبانی مورد بررسی قرار میگیرد. ابتدا مدلهای آماری ساده مانند n-gram معرفی میشوند که در آنها پیشبینی واژهی بعدی صرفاً بر اساس چند واژهی قبل انجام میشد. سپس پیشرفت این مدلها تا ظهور شبکههای عصبی بازگشتی (RNN) و مدلهای مبتنی بر حافظه طولانیمدت (LSTM) توضیح داده میشود. در ادامه، تحول اساسیای که با معرفی معماری Transformer در سال ۲۰۱۷ رخ داد، تشریح میشود؛ تحولی که منجر به شکلگیری مدلهای زبانی بزرگ امروزی مانند GPT، PaLM و LLaMA شد. این بخش به فراگیران کمک میکند تا درک کنند چگونه مدلهای زبانی از روشهای آماری ساده به سامانههای عمیق و پیچیدهی امروزی رسیدهاند.
این بخش به بررسی ساختار درونی مدل Transformer میپردازد که شالودهی اصلی تمامی مدلهای زبانی بزرگ است. در این درس مفهوم کلیدی Attention یا «توجه» توضیح داده میشود؛ مکانیزمی که به مدل اجازه میدهد هنگام پردازش یک جمله، وزن بیشتری به بخشهای مهمتر متن بدهد. به زبان ساده، این سازوکار موجب میشود مدل بتواند وابستگی بین کلمات را در جملات بلند درک کند، حتی اگر فاصلهی زیادی از هم داشته باشند. در این بخش همچنین اجزای اصلی ترنسفورمر شامل لایههای رمزگذار (Encoder) و رمزگشا (Decoder) و نحوهی تعامل آنها با دادهها معرفی میشود تا فراگیران درکی دقیق از منطق عملکرد LLMها پیدا کنند.
در این بخش، مفهوم مقیاسپذیری (Scalability) در مدلهای زبانی بزرگ تشریح میشود. توضیح داده میشود که افزایش کیفیت این مدلها حاصل رشد همزمان سه عامل است: حجم عظیم دادههای آموزشی، تعداد بسیار زیاد پارامترهای مدل (میلیاردها وزن قابل یادگیری)، و قدرت محاسباتی بالا به کمک GPUها و ابررایانهها. شرکتکنندگان در این قسمت میآموزند که چرا هرچه داده و پارامترها بیشتر میشوند، مدل توانایی درک و تولید متن دقیقتری پیدا میکند، اما همزمان هزینهی آموزش، انرژی مصرفی و نیاز به زیرساخت نیز بهشدت افزایش مییابد.
در این بخش، قابلیتها و نقاط ضعف مدلهای زبانی بزرگ بهصورت تحلیلی بررسی میشود. از جمله توانمندیهای این مدلها میتوان به تولید متن طبیعی و منسجم، پاسخ به پرسشها، خلاصهسازی، ترجمه، تولید کد و حتی استدلالهای زبانی اشاره کرد. با این حال، مدلهای زبانی محدودیتهایی نیز دارند؛ از جمله عدم درک واقعی از معنا، احتمال تولید اطلاعات نادرست (Hallucination)، و حساسیت به دادههای آموزشی. در این درس تلاش میشود میان تواناییهای چشمگیر این مدلها و مرزهای فعلی دانش آنها تمایز دقیقی ترسیم شود تا درک واقعبینانهای از کارکردشان شکل گیرد.
در بخش پایانی این درس، کاربردهای فعلی مدلهای زبانی بزرگ و روندهای آیندهی توسعهی آنها بررسی میشود. مثالهایی از استفادهی LLMها در موتورهای جستوجو، دستیارهای هوشمند، تولید محتوا، تحلیل داده، آموزش و توسعهی نرمافزار ارائه میشود. سپس مسیرهای پژوهشی آتی مانند ترکیب مدلهای زبانی با حسگرهای چندوجهی (متن، تصویر و صدا)، بهبود کارایی محاسباتی، افزایش شفافیت در تصمیمگیری، و ایجاد مدلهای تخصصیتر برای صنایع مختلف مورد بحث قرار میگیرد. هدف از این بخش، ایجاد دیدی جامع نسبت به آیندهی فناوری LLM و نقش آن در تحول دیجیتال است.
3-معماری، آموزش و بهکارگیری مدلهای زبانی بزرگ (LLM)
در این بخش، فرآیند پیشآموزش (Pre-training) مدلهای زبانی بهعنوان مرحلهی اصلی یادگیری معرفی میشود. در این مرحله، مدل با حجم عظیمی از متون عمومی مانند کتابها، مقالات، صفحات وب و گفتگوها آموزش میبیند تا ساختار زبان، روابط میان کلمات و الگوهای زبانی را بهصورت عمومی فراگیرد. این آموزش بدون نیاز به برچسب یا راهنمای انسانی انجام میشود و هدف آن، ساخت مدلی است که بتواند زبان را در سطحی عمیق درک کند. در این درس توضیح داده میشود که چگونه مدل از طریق پیشبینی کلمهی بعدی یا تکمیل جمله، دانش زبانی را درونی میکند و این دانش پایه در مراحل بعدی برای تنظیم دقیقتر (Fine-tuning) مورد استفاده قرار میگیرد.
در این بخش، شرکتکنندگان با مرحلهی تنظیم دقیق (Fine-tuning) و نقش آن در تطبیق مدلهای زبانی با نیازهای خاص آشنا میشوند. توضیح داده میشود که پس از پیشآموزش، مدل باید با دادههای هدفمندتر و بر اساس دستورالعملهای مشخص تنظیم شود تا بتواند پاسخهای دقیقتر و کاربردیتر ارائه دهد. در این فرآیند، مدل با نمونههایی از دستورها و پاسخهای مطلوب آموزش داده میشود تا یاد بگیرد چگونه در قالبهای مختلف (پرسشوپاسخ، خلاصهسازی، ترجمه و غیره) عمل کند. همچنین روشهای ارزیابی عملکرد مدل پس از تنظیم، از جمله سنجش دقت، انسجام، و همخوانی با دستورالعملها، مورد بررسی قرار میگیرد تا فراگیران درک جامعی از چرخهی کامل آموزش تا بهینهسازی مدل پیدا کنند.
در این بخش، جنبههای فنی و زیرساختی مربوط به اجرای مدلهای زبانی بزرگ بررسی میشود. شرکتکنندگان با مفهوم API (رابط برنامهنویسی کاربردی) و نحوهی استفاده از آن برای برقراری ارتباط با مدلهای زبانی آشنا میشوند. همچنین پروتکلهای استانداردی که برای ارسال درخواستها، دریافت پاسخها و مدیریت دادهها بهکار میروند معرفی میشوند. در ادامه، عملکرد GPUها و نقش آنها در تسریع محاسبات سنگین مورد بررسی قرار میگیرد. توضیح داده میشود که چرا آموزش و اجرای LLMها بدون پردازش موازی مبتنی بر GPU عملاً ممکن نیست و چگونه ابزارهایی مانند CUDA، PyTorch و Hugging Face در این فرآیند نقش کلیدی دارند.
در بخش پایانی این درس، به کاربرد پیشرفتهی مدلهای زبانی در استخراج و نمایش روابط میان دادهها پرداخته میشود. توضیح داده میشود که مدلهای زبانی میتوانند از میان حجم زیادی از متن، موجودیتها (مانند افراد، سازمانها، مکانها) و روابط میان آنها را شناسایی کرده و در قالب گراف دانش (Knowledge Graph) نمایش دهند. این گرافها به درک عمیقتر از معنا و ارتباط مفاهیم کمک میکنند و در حوزههایی مانند موتورهای جستوجو، تحلیل دادههای متنی، و سیستمهای توصیهگر کاربرد گسترده دارند. هدف این بخش، آشنایی فراگیران با نحوهی ترکیب قدرت زبانی LLMها با ساختارهای دادهمحور برای ایجاد بینشهای تحلیلی و هوشمند است.
4-بهینهسازی، توسعه و کاربردهای پیشرفته مدلهای زبانی بزرگ
در این بخش، تمرکز بر آمادهسازی مدلهای زبانی برای مرحلهی استقرار (Deployment) است؛ مرحلهای که مدل باید در محیط واقعی، با کاربر یا سیستمهای دیگر تعامل داشته باشد. توضیح داده میشود که مدلها پس از آموزش، برای اجرا در مقیاس بزرگ نیازمند بهینهسازی هستند تا بتوانند با کمترین منابع سختافزاری، بیشترین کارایی را ارائه دهند. مباحثی مانند فشردهسازی مدل (Model Compression)، کاهش دقت محاسبات (Quantization)، و تقسیمبندی پردازش میان GPU و CPU مطرح میشوند. همچنین روشهای ارزیابی عملکرد مدل پس از استقرار، نظارت بر کیفیت پاسخها و مدیریت مصرف منابع بررسی میشود تا شرکتکنندگان درک دقیقی از الزامات فنی و عملیاتی پیادهسازی LLMها در محیطهای واقعی به دست آورند.
این بخش به نحوهی استفاده از مدلهای زبانی در طراحی و توسعهی اپلیکیشنهای هوشمند اختصاص دارد. فراگیران میآموزند که چگونه از طریق APIها و فریمورکهایی مانند LangChain یا LlamaIndex میتوان مدلهای زبانی را درون نرمافزارها، پلتفرمهای گفتگو، موتورهای جستوجو یا ابزارهای سازمانی ادغام کرد. در این بخش، مفهوم “Agent” یا عامل هوشمند معرفی میشود که میتواند با کاربر تعامل کند، دادهها را بازیابی نماید و تصمیمگیریهای خودکار انجام دهد. مثالهایی از کاربردهای عملی شامل چتباتهای سازمانی، ابزارهای تولید محتوای خودکار، تحلیلگرهای متنی و سامانههای پشتیبانی مشتری ارائه میشود تا شرکتکنندگان با فرآیند طراحی، استقرار و تست اپلیکیشنهای مبتنی بر LLM بهصورت کاربردی آشنا شوند.
در این بخش، مفهوم مدلهای زبانی چندوجهی (Multimodal Language Models) معرفی میشود که گام بعدی در تکامل LLMها محسوب میشوند. این مدلها علاوه بر متن، دادههایی مانند تصویر، صدا و ویدیو را نیز پردازش میکنند و قادرند ارتباط میان این قالبهای مختلف را درک نمایند. در این درس، ساختار مدلهایی مانند CLIP، Flamingo و Gemini به زبان ساده توضیح داده میشود و نحوهی آموزش همزمان دادههای تصویری و زبانی بررسی میگردد. هدف این است که فراگیران درک کنند چگونه مدلهای چندوجهی میتوانند پایهی نسل جدیدی از کاربردها مانند جستوجوی تصویری هوشمند، توضیح تصویر، و تولید ویدیو از متن باشند. همچنین چالشهای فنی این حوزه، از جمله حجم بالای داده و همترازی معنایی میان مدها، بهصورت اجمالی مرور میشود.
در بخش پایانی، نقش بازخورد انسانی (Human Feedback) در بهبود کیفیت و رفتار مدلهای زبانی مورد بررسی قرار میگیرد. روشهایی مانند RLHF (یادگیری تقویتی با بازخورد انسانی) توضیح داده میشود که در آن، انسانها خروجیهای مدل را ارزیابی کرده و از این بازخورد برای تنظیم رفتار مدل استفاده میشود. علاوه بر آن، رویکردهای جدیدتر مانند DPO (Direct Preference Optimization) و GRPO (Generalized Reward Preference Optimization) معرفی میشوند که در نسلهای جدید LLMها برای آموزش کارآمدتر بهکار میروند. در این بخش همچنین کاربردهای پیشرفتهی مدلهای زبانی، از جمله دستیارهای تصمیمیار، تولید محتوای خلاقانه، تحلیل اسناد پیچیده و سامانههای تعاملی معرفی میشوند تا شرکتکنندگان دید جامعی از ظرفیتهای توسعهیافتهی LLMها در سطوح حرفهای به دست آورند.
5-یادگیری مبتنی بر پرامپت و تولید افزودهشده با بازیابی
در این بخش، دو مفهوم بنیادین یعنی یادگیری مبتنی بر پرامپت (Prompt-based Learning) و تولید افزودهشده با بازیابی (Retrieval-Augmented Generation – RAG) معرفی میشوند. در یادگیری مبتنی بر پرامپت، بهجای بازآموزی مدل، ورودی بهگونهای طراحی میشود که مدل پاسخ مطلوب را بر اساس دانشی که از قبل دارد تولید کند. در واقع، پرامپت نقش «دستور هوشمند» را دارد که نحوهی تفکر مدل را هدایت میکند. در مقابل، RAG ترکیبی از مدل زبانی و سامانهی جستوجو است؛ بدین معنا که پیش از تولید پاسخ، مدل به مجموعهای از منابع اطلاعاتی (مثل اسناد یا پایگاه دادهها) مراجعه کرده و پاسخ خود را بر اساس دادههای بهروز و معتبر شکل میدهد. این بخش به فراگیران کمک میکند تا درک دقیقی از تفاوت نقش پرامپت در هدایت مدل و نقش RAG در غنیسازی پاسخها پیدا کنند.
در این بخش، تفاوت رویکردهای نوین مبتنی بر پرامپت و RAG با روشهای سنتی آموزش مدلها مانند Fine-tuning تشریح میشود. در رویکردهای کلاسیک، برای هر کاربرد خاص لازم بود مدل از نو یا با دادههای تازه بازآموزی شود که فرآیندی زمانبر و پرهزینه بود. اما در یادگیری مبتنی بر پرامپت، بدون نیاز به تغییر وزنهای داخلی مدل، تنها از طریق نوشتن دستورهای هوشمند میتوان رفتار مدل را متناسب با مسئله تنظیم کرد. در RAG نیز بهجای افزودن داده به پارامترهای مدل، اطلاعات در زمان پاسخدهی از منابع خارجی بازیابی میشود. این تفاوت باعث میشود که توسعهی کاربردهای هوش مصنوعی سریعتر، سبکتر و قابل بهروزرسانیتر انجام گیرد.
این بخش به یکی از مهارتهای کلیدی کار با مدلهای زبانی اختصاص دارد: طراحی و بهینهسازی پرامپت (Prompt Engineering). شرکتکنندگان در این بخش یاد میگیرند چگونه دستوراتی بنویسند که مدل را به سمت تولید پاسخهای دقیق، مرتبط و کنترلشده هدایت کند. موضوعاتی مانند ساختاردهی پرامپت، استفاده از نقشها (Role Prompting)، مثالهای درونمتنی (Few-shot Learning)، و تکنیکهای زنجیرهی تفکر (Chain-of-Thought) معرفی میشوند. همچنین راهکارهای ارزیابی کیفیت پرامپتها و بهبود آنها از طریق آزمون و خطا، و ابزارهایی مانند PromptLayer و LangChain نیز توضیح داده میشوند. هدف این بخش، ارتقای توان طراحی دستورات مؤثر و خلاقانه برای تعامل با مدلهای زبانی است.
در بخش پایانی این درس، ساختار فنی و فرآیند پیادهسازی سیستمهای RAG بهصورت مرحلهبهمرحله تشریح میشود. توضیح داده میشود که RAG از دو جزء اصلی تشکیل شده است: بازیاب (Retriever) که مرتبطترین اسناد را از پایگاه داده یا موتور جستوجو برمیگرداند، و مولد (Generator) که بر اساس این اطلاعات پاسخ را تولید میکند. شرکتکنندگان در این بخش با معماریهای متداول RAG، نحوهی اتصال آن به منابع داده (مانند پایگاههای برداری و embeddingها)، و ابزارهای عملی نظیر LangChain، FAISS و ChromaDB آشنا میشوند. هدف از این بخش، درک کاربردی نحوهی ترکیب قدرت زبانی LLMها با جستوجوی اطلاعاتی برای ساخت سامانههای پاسخگو، شخصیسازیشده و بهروز است.
6-آشنایی و کار با مدلهای بینایی - زبانی (VLM)
در این بخش، فراگیران با مفاهیم اولیهی مدلهای چندوجهی (Multimodal Models) آشنا میشوند؛ مدلهایی که قادرند همزمان دادههای تصویری و متنی را پردازش و بین آنها ارتباط برقرار کنند. ابتدا مدل معروف CLIP محصول OpenAI معرفی میشود که توانست تصویر و متن را در یک فضای معنایی مشترک نمایش دهد و نقطهی عطفی در درک ترکیبی دادهها بهوجود آورد. سپس نسخههای پیشرفتهتر مانند ALIGN، BLIP و SigLIP بررسی میشوند که دقت، کارایی و سازگاری بیشتری در درک مفاهیم بصری دارند. در این بخش، نحوهی آموزش این مدلها با جفتهای تصویر و توضیح متنی و نیز کاربرد آنها در حوزههایی مانند جستوجوی تصویری، تولید تصویر از متن و تحلیل محتوای بصری توضیح داده میشود.
در این بخش، توانایی مدلهای بینایی–زبانی در درک تصاویر مورد بررسی قرار میگیرد. توضیح داده میشود که VLMها چگونه میتوانند اجزای یک تصویر (اشیا، صحنهها، رنگها و روابط میان عناصر) را شناسایی کرده و آن را بهصورت توصیف متنی بیان کنند. فراگیران میآموزند که این مدلها برخلاف مدلهای بینایی کلاسیک، تنها به شناسایی اجسام محدود نیستند بلکه میتوانند مفهوم کلی یا احساس نهفته در تصویر را نیز تحلیل کنند. مثالهایی از کاربردهای عملی شامل تولید توضیح خودکار برای تصاویر (Image Captioning)، تشخیص محتوای نامناسب، و تحلیل دادههای بصری در رسانهها ارائه میشود. هدف این بخش، درک نحوهی تبدیل ویژگیهای بصری به معناهای زبانی است.
در این بخش، توانایی مدلهای چندوجهی در تحلیل و درک دادههای ویدیویی مورد بحث قرار میگیرد. توضیح داده میشود که مدلهای ویدیویی با ترکیب فریمهای تصویری و متن، قادرند رویدادها، کنشها و زمینهی معنایی در ویدیو را تفسیر کنند. این مدلها میتوانند خلاصهای از ویدیو بنویسند، سؤالات کاربر را دربارهی محتوای آن پاسخ دهند یا حتی در سیستمهای نظارتی و آموزشی بهکار روند. ساختارهای پیشرفته مانند Video-CLIP یا Flamingo نیز معرفی میشوند که درک زمانی و پیوستگی بین فریمها را در مدل لحاظ میکنند. هدف این بخش، نشان دادن گسترش قابلیتهای زبانی–بینایی از تصویر ثابت به محتوای پویا و چندبعدی است.
در این بخش، فراگیران با نحوهی تنظیم دقیق (Fine-tuning) مدلهای چندوجهی برای کاربردهای خاص آشنا میشوند. توضیح داده میشود که پس از آموزش اولیهی مدل با دادههای عمومی، میتوان آن را با دادههای تخصصیتر (مثلاً تصاویر پزشکی، صنعتی یا ماهوارهای) تنظیم کرد تا عملکرد دقیقتری داشته باشد. همچنین روشهای انتقال یادگیری (Transfer Learning) و تکنیکهای بهینهسازی داده برای کاهش هزینهی آموزش معرفی میشوند. در این بخش، نمونههایی از کاربردهای تخصصی مانند تحلیل تصاویر پزشکی، بازرسی صنعتی، تشخیص محصول در فروشگاههای آنلاین و جستوجوی تصویری هوشمند بررسی خواهد شد. هدف آن است که شرکتکنندگان با فرآیند عملی بومیسازی مدلهای چندوجهی برای صنایع مختلف آشنا شوند.
در بخش پایانی، روشهای نوین آموزش مدلهای مولتیمدال با استفاده از بازخورد ترجیحی (Preference-based Learning) معرفی میشوند. روشهایی مانند DPO (Direct Preference Optimization)، GRPO (Generalized Reward Preference Optimization) و MPO (Model Preference Optimization) توضیح داده میشوند که در نسل جدید مدلهای زبانی و بینایی برای بهبود کیفیت پاسخها بهکار میروند. در این روشها، بهجای تکیه بر برچسبهای قطعی، مدل بر اساس ترجیحات انسانی یا سیگنالهای کیفی یاد میگیرد که کدام پاسخ مطلوبتر است. در این بخش، شرکتکنندگان درک میکنند چگونه این الگوریتمها به مدلها کمک میکنند تا در تعامل با کاربران، پاسخهایی طبیعیتر، دقیقتر و منطبق با انتظارات انسانی ارائه دهند.
7-آینده هوش مصنوعی مولد و تحول در کسبوکارها
در این بخش، نقش مدلهای مولد (Generative Models) بهعنوان نیروی محرک نوآوری در صنایع مختلف مورد بررسی قرار میگیرد. توضیح داده میشود که این مدلها چگونه میتوانند ایدهپردازی، طراحی محصول، تولید محتوای خلاقانه و توسعهی خدمات جدید را سرعت ببخشند. از تولید تصویر و ویدیو گرفته تا طراحی محصول و نگارش خودکار متن، مدلهای مولد در حال دگرگونسازی فرآیندهای سنتی نوآوری هستند. در این بخش نمونههایی از صنایع مختلف مانند مد، سرگرمی، آموزش و فناوری بررسی میشود تا نشان داده شود که هوش مصنوعی مولد چگونه میتواند بهعنوان شریک خلاق انسان عمل کرده و زمان توسعهی محصولات را بهشدت کاهش دهد.
در این بخش، کاربرد هوش مصنوعی مولد در حوزههای بازاریابی، تولید محتوا و رسانه تشریح میشود. مدلهای مولد اکنون قادرند تصاویر تبلیغاتی، ویدیوهای کوتاه، شعارهای تبلیغاتی و حتی سناریوهای کمپین را بهصورت خودکار ایجاد کنند. در این درس توضیح داده میشود که چگونه برندها از این فناوری برای خلق تجربههای شخصیسازیشده، تست سریع ایدهها و کاهش هزینههای تولید محتوا استفاده میکنند. همچنین به مسئلهی «اتوماسیون خلاقیت» پرداخته میشود؛ جایی که انسان نقش هدایتگر و ناظر را بر عهده دارد و ماشین ابزار اجرای خلاقیت را فراهم میکند. هدف این بخش، آشنایی با مرز جدید همکاری انسان و ماشین در صنایع خلاق است.
در این بخش، نقش هوش مصنوعی مولد در تحول فرآیند تصمیمسازی سازمانی بررسی میشود. توضیح داده میشود که چگونه مدلهای مولد میتوانند بر اساس دادههای تاریخی، تحلیلهای پیشبینانه و سناریوسازیهای مجازی، مدیران را در تدوین استراتژیهای دقیقتر یاری دهند. کاربردهایی مانند شبیهسازی بازار، پیشبینی واکنش مشتریان، تولید گزارشهای تحلیلی و طراحی مدلهای تصمیمیار معرفی میشوند. این بخش نشان میدهد که هوش مصنوعی مولد صرفاً ابزاری برای تولید محتوا نیست، بلکه میتواند به ابزاری راهبردی در تصمیمسازی دادهمحور تبدیل شود که بهرهوری و دقت تصمیمات مدیریتی را افزایش میدهد.
در این بخش، تغییرات ساختاری در مدلهای کسبوکار ناشی از ظهور هوش مصنوعی مولد تحلیل میشود. توضیح داده میشود که چگونه شرکتها در حال گذار از مدلهای سنتی فروش محصول به سمت مدلهای مبتنی بر API، اشتراکمحور (Subscription) و خلق ارزش از طریق داده هستند. پلتفرمهایی مانند OpenAI، Midjourney و Runway نمونههایی از شرکتهاییاند که مدلهای درآمدی خود را بر پایه دسترسی به مدلهای مولد و سرویسهای هوشمند بنا کردهاند. همچنین فرصتهای جدید برای استارتاپها در حوزههایی مانند تولید محتوای خودکار، طراحی خلاقانه، آموزش و خدمات مشاوره مبتنی بر هوش مصنوعی بررسی میشود.
در بخش پایانی، به چالشهای اخلاقی و اجتماعی ناشی از گسترش هوش مصنوعی مولد پرداخته میشود. موضوعاتی مانند مالکیت داده و محتوای تولیدشده، سوگیری الگوریتمی، انتشار اطلاعات نادرست (Hallucination) و حفظ حریم خصوصی بررسی میشوند. همچنین نقش سیاستگذاران و نهادهای تنظیمگر در تعریف چارچوبهای حقوقی و اخلاقی برای استفادهی مسئولانه از این فناوری مورد بحث قرار میگیرد. در این بخش، مفهوم «اعتماد در هوش مصنوعی» معرفی شده و راهکارهایی برای افزایش شفافیت، توضیحپذیری و کنترل انسانی بر خروجی مدلها مطرح میشود. هدف این قسمت، ایجاد درکی متعادل میان ظرفیتهای عظیم هوش مصنوعی مولد و مسئولیتهای اجتماعی ناشی از بهکارگیری آن است.
8-تأثیر LLM بر بازار کار و مدلهای کسبوکار
در این بخش، نقش مدلهای زبانی بزرگ در اتوماسیون وظایف دانشی (Knowledge Work Automation) بررسی میشود. توضیح داده میشود که چگونه LLMها توانستهاند بسیاری از فعالیتهای فکری مانند نوشتن گزارش، تحلیل داده، خلاصهسازی متون، پاسخگویی به مشتریان و حتی تولید کد را بهصورت خودکار انجام دهند. این تحول موجب کاهش قابلتوجه هزینههای عملیاتی، افزایش سرعت انجام کارها و بهبود دقت در تصمیمگیریهای سازمانی شده است. در این بخش همچنین به مفهوم «هوش افزوده» (Augmented Intelligence) اشاره میشود؛ جایی که هدف جایگزینی انسان نیست، بلکه ارتقای بهرهوری از طریق همکاری انسان و ماشین است.
در این بخش، فرصتهای شغلی نوظهور ناشی از گسترش LLMها معرفی میشود. ظهور نقشهایی مانند Prompt Engineer (مهندس طراحی پرامپت)، AI Trainer (مربی هوش مصنوعی)، Data Curator (گردآورنده داده) و Ethics Officer (مسئول اخلاق در هوش مصنوعی) از جمله نمونههای جدیدی هستند که در سازمانهای پیشرو در حال شکلگیریاند. توضیح داده میشود که این مشاغل چگونه به مهارتهای ترکیبی نیاز دارند؛ ترکیبی از درک زبان، منطق، داده و تفکر طراحی. هدف این بخش، آشنا کردن فراگیران با مسیرهای شغلی آینده و مهارتهایی است که برای همکاری مؤثر با مدلهای زبانی بزرگ مورد نیاز خواهند بود.
در این بخش، تحولات ساختاری در مدلهای درآمدی و زنجیرهی ارزش کسبوکارها بررسی میشود. مدلهای زبانی بزرگ اکنون بهعنوان سرویس (LLM-as-a-Service) از طریق API در اختیار کسبوکارها قرار میگیرند و این امر باعث شده شرکتها بتوانند بدون نیاز به ساخت مدل از صفر، از قابلیتهای زبانی هوش مصنوعی در محصولات خود استفاده کنند. نمونههایی از پلتفرمهای موفق مانند OpenAI، Anthropic و Cohere معرفی میشوند که مدلهای خود را در قالب خدمات اشتراکی یا مصرفمحور ارائه میدهند. در این بخش، مفهوم اقتصاد API، مدلهای اشتراکمحور و فرصتهای تجاری ناشی از ادغام LLMها در محصولات سازمانی تشریح میشود.
این بخش به تحلیل تأثیر LLMها بر بهرهوری نیروی کار و ساختار سازمانها اختصاص دارد. توضیح داده میشود که چگونه هوش مصنوعی مولد میتواند زمان انجام وظایف پیچیده را کاهش دهد و امکان تمرکز کارکنان بر فعالیتهای خلاقانهتر و تصمیممحورتر را فراهم کند. همچنین به تحول در زنجیرهی ارزش سازمانی اشاره میشود، جایی که بخشهایی مانند خدمات مشتری، بازاریابی، منابع انسانی و توسعهی محصول با ادغام LLMها کارآمدتر و دادهمحورتر میشوند. هدف از این بخش، درک چگونگی گذار از سازمانهای سنتی به سازمانهای هوشمند و سازگار با عصر هوش مصنوعی است.
در بخش پایانی، پیامدهای کلان اقتصادی و اجتماعی ناشی از گسترش LLMها مورد بررسی قرار میگیرد. توضیح داده میشود که چگونه کشورها و سازمانهایی که سریعتر به این فناوری مجهز شوند، از مزیت رقابتی جهانی برخوردار خواهند شد. همزمان، جابهجایی گستردهای در مهارتهای مورد نیاز بازار کار در حال وقوع است؛ مهارتهای فنی، تحلیلی و بینرشتهای جایگزین فعالیتهای تکراری و اجرایی میشوند. همچنین موضوعاتی مانند آموزش مداوم، بازآموزی نیروهای انسانی و نقش دولتها در سازگاری اجتماعی با تحولات هوش مصنوعی مطرح میشود. هدف این بخش، ایجاد دیدی کلان نسبت به تأثیرات بلندمدت LLMها بر اشتغال، رقابت و توسعهی پایدار است.
9-اقتصاد مدلهای زبانی بزرگ و هوش مصنوعی
در این بخش، ساختار هزینهای مدلهای زبانی بزرگ از مرحلهی آموزش تا استقرار مورد بررسی قرار میگیرد. توضیح داده میشود که توسعهی LLMها نیازمند حجم عظیمی از دادههای متنی، توان پردازشی بالا و مصرف قابلتوجه انرژی است. هزینههای مرتبط با گردآوری و پاکسازی داده، خرید یا اجارهی GPUها و زیرساختهای ابری، و نگهداشت مدل در طول زمان تشریح میشود. همچنین به چالشهای زیستمحیطی ناشی از مصرف انرژی مراکز داده اشاره میشود. هدف این بخش، ایجاد درکی واقعگرایانه از منابع مالی، فنی و زیرساختی مورد نیاز برای تولید و پشتیبانی از مدلهای زبانی در مقیاس صنعتی است.
در این بخش، مدلهای کسب درآمد از LLMها تحلیل میشوند. توضیح داده میشود که شرکتهای پیشرو در حوزهی هوش مصنوعی، خدمات خود را بر پایهی API ارائه میکنند که کاربران میتوانند بهصورت مصرفمحور یا اشتراکماهانه از آن بهرهمند شوند. این الگو موجب شده است که مدلهای زبانی بزرگ نهتنها ابزار تحقیقاتی، بلکه زیرساخت اقتصادی جدیدی برای صنایع نرمافزاری و خدمات دیجیتال باشند. نمونههایی از مدلهای درآمدی مانند Pay-as-you-go، اشتراک سازمانی (Enterprise Subscription) و مدل همافزای داده (Data Partnership) معرفی میشود. هدف از این بخش، درک سازوکار اقتصادی و جریان درآمدی ناشی از تجاریسازی LLMهاست.
در این بخش، پویایی رقابت میان شرکتهای بزرگ فناوری (Big Tech) و جوامع متنباز (Open Source) بررسی میشود. توضیح داده میشود که مدلهای عظیمی مانند GPT، Gemini و Claude در اختیار شرکتهای چندملیتی با منابع کلان مالی و زیرساختی هستند، در حالی که مدلهای متنباز مانند LLaMA، Mistral و Falcon تلاش میکنند دسترسی گستردهتر و هزینهی کمتر را فراهم کنند. موضوع اثرات مقیاس (Economies of Scale) تشریح میشود که چگونه شرکتهای بزرگ به دلیل دسترسی به داده، توان پردازشی و بازار گسترده، مزیت رقابتی انحصاری دارند. در مقابل، پروژههای متنباز با تمرکز بر شفافیت، همکاری جمعی و نوآوری باز، نقش مهمی در توازن قدرت فناوری ایفا میکنند.
در این بخش، تأثیر LLMها بر بهرهوری و بازده اقتصادی صنایع بررسی میشود. مدلهای زبانی بزرگ در حال تغییر روشهای کار در بخشهایی مانند خدمات مالی، آموزش، سلامت، بازاریابی، تولید محتوا و دولت الکترونیک هستند. این مدلها با کاهش زمان انجام وظایف، بهبود تصمیمگیری و حذف مراحل تکراری، موجب افزایش بهرهوری نیروی کار و رشد اقتصادی میشوند. مثالهایی از کاربرد LLM در تحلیل دادههای مالی، طراحی خودکار محتوا، پشتیبانی مشتریان و تسهیل تحقیق علمی ارائه میشود. هدف این بخش، نشان دادن چگونگی انتقال ارزش اقتصادی از سطح فناوری به سطح واقعی صنایع و کسبوکارهاست.
در بخش پایانی، ابعاد کلان اقتصادی و سیاسی هوش مصنوعی مورد بررسی قرار میگیرد. توضیح داده میشود که چگونه کشورها و بلوکهای اقتصادی بزرگ (مانند آمریکا، اتحادیه اروپا و چین) در حال رقابت برای تسلط بر زیرساختهای هوش مصنوعی و مدلهای زبانی هستند. موضوعاتی مانند سرمایهگذاریهای کلان خطرپذیر (Venture Capital)، حمایتهای دولتی و نقش تنظیمگری در شفافیت و امنیت دادهها مورد بحث قرار میگیرد. در این بخش همچنین چالشهای مرتبط با مالکیت داده، کنترل فناوری، امنیت سایبری و موازنهی قدرت جهانی بررسی میشود. هدف این است که شرکتکنندگان درک کنند هوش مصنوعی صرفاً یک فناوری نیست، بلکه به یکی از محورهای اصلی رقابت ژئوپولیتیکی و اقتصادی قرن بیستویکم تبدیل شده است.
- بررسی پروژههای واقعی اجرا شده و شبکه سازی با اساتید - 6 ساعت حضوری
گواهی دوره :
- گواهی معتبر دو زبانه از دانشگاه تهران
- مورد تایید وزارت علوم، تحقیقات و فناوری
- قابلیت ترجمه رسمی از وزارت امور خارجه و وزارت دادگستری
- دارای کد رهگیری و قابل استعلام از سامانه دانشگاه
- دارای هولوگرام و ضرایب امنیتی بالا
مدرسان دوره :
- دکتری هوش مصنوعی
- مدیر عامل شرکت دانش بنیان ساعیان ارتباط
- مجری پروژه مرکز تماس هوشمصنوعی اسنوا
- مجری پروژه مرکز تماس هوش مصنوعی فرودگاه مهرآباد
- مجری پروژه مرکز تماس هوش مصنوعی بانک ملبورن استرالیا
- مدیر فنی LLM دانشگاه صنعتی شریف
- مدیر LLM سکوی ملی هوش مصنوعی
- مدرس یادگیری عمیق و LLM
- مشاور هوش مصنوعی هلدنیگ فاخر
- مشاور هوش مصنوعی آدوراطب (عبیدی)
- دانشمند ارشد داده در فیلیمو/آپارات
- مدیر تیم مهندسی هوش مصنوعی
- پژوهشگاه فناوری ارتباطات و اطلاعات پیشرفته دانشگاه صنعتی شریف
- مدیر فنی مهندسی هوش مصنوعی سکوی ملی هوش مصنوعی
- مهندس اسبق داده در فناوری ابری پارسپک
- دانشمند اسبق داده در موتور هوش مصنوعی خبرفارسی
- مشاور هوش مصنوعی شرکت آلمانی زبراکت
- دکتری مهندسی صنایع و عضو هیات علمی دانشگاه
- متخصص در حوزه استراتژی کاربست هوش مصنوعی و معماری اکوسیستمهای دیجیتال
- مشاور پیاده سازی طرح های تحول دیجیتال و هوش مصنوعی در شرکت بهاران سیستم
- مشاور طرح ریزی استراتژی تحول دیجیتال در منطقه ویژه اقتصادی سلفچگان
- سخنران کنفرانسهای علمی در زمینه مدیریت در عصر هوش مصنوعی
- رئیس هیأت مدیره استودیو نویسندگی مصیر همبنیان گذار پلتفرم کوچینو
- مشاور پروژههای پیاده سازی هوش مصنوعی در سازمان های دفاعی
- پژوهشگر در حوزه حکمرانی در عص هوش مصنوعی
مشاور طرح ریزی برنامه توسعه استارتاپ های هوش مصنوعی در پارک های علم و فناوری - مشاور پروژه تحول دیجیتال و پلتفرمهای سازمانی AI در شرکت بیمه کوثر
- پژوهشگر کاربردی هوش مصنوعی در اداره سازمانهای پیچیده
- دکتری فناوری اطلاعات با گرایش هوش مصنوعی
- مدیر پروژههای متعدد ملی هوش مصنوعی
- پياده سازی و استقرار سامانه های هوشمند عملیاتی در دستگاههای اجرایی متعدد
- مدیر پروژه چندین طرح عتفی-پژوهشی وزارت علوم مبتنی بر هوش مصنوعی
- مدیر پروژههای ملی و عملیاتی در حوزه کاربرد هوش مصنوعی در علم حقوق و قضا
- برگزیده بنیاد ملی نخبگان
- برگزیده دومین جشنواره ملی شهید بهشتی
- نویسنده چندین مقاله ژورنالی و کنفرانسی ملی و بینالمللی
- نویسنده چندین کتاب در زمینه کاربرد هوش مصنوعی در علم حقوق و قضا از جمله کتاب تنقیح هوشمند قوانین (مبانی، بایستهها، روشها و مدلها) (اداره چاپ و انتشار مرکز پژوهشهای مجلس شورای اسلامی) و کتاب دستیار هوشمند قضایی: گامی نوآورانه در تصمیم گیری قضایی (پژوهشگاه قوه قضاییه)
- دکتری مهندسی صنایع
- بنیانگذار و مدیر عامل شرکت نکسینو
- مجری پروژه دستیار هوشمند وزارت تعاون، کار و رفاه اجتماعی
- مشاور بلوغ هوش مصنوعی در بانک شهر
- مشاور هوش مصنوعی در قوه قضاییه
- مدیر چندین پروژه هوش مصنوعی در همراه اول
- مشاور کسبوکارهای پلتفرمی و هوشمندسازی در گروه مدلل
- مشاور توسعه هوش مصنوعی در گروه گلرنگ
- بنیانگذار چندین محصول در حوزه هوش مصنوعی
- نویسنده بیش از ۳۰ مقاله بینالمللی (ISI) در حوزه هوش مصنوعی و علم داده
- برگزیده بنیاد ملی نخبگان
- کارشناسی ارشد مهندسی کامپیوتر
- مدیر فنی مجموعه دانش بنیان شناسا
- مدرس مطرح دورههای بینایی ماشین و یادگیری عمیق: دانشگاه تهران، صنعتی شریف و امیرکبیر
محصول: جامع ترین دوره مدل های زبانی بزرگ (LLM) و کاربرد هوش مصنوعی مولد
جلسه اول رایگان دوره LLM
سوالات متداول :
تمام مباحث آموزشی به صورت آنلاین تعاملی (Live) برگزار میشود و ویدیوها پس از هر جلسه در پنل اختصاصی شرکتکنندگان قابل مشاهده خواهد بود که در یک مسیر آموزشی پله پله باهم پیش برویم. یک کلاس 6 ساعته حضوری هم نیزطبق برنامه زمانی با حضور تعدادی از اساتید برگزار خواهد شد
این دوره به معرفی، درک عمیق و کاربرد عملی مدلهای زبانی بزرگ (LLMs) مانند ChatGPT، Claude و Gemini در پروژههای واقعی میپردازد. دانشپذیران یاد میگیرند چگونه از هوش مصنوعی مولد در تحلیل داده، تولید محتوا، طراحی سیستمهای هوشمند و اتوماسیون استفاده کنند.
در این دوره با مفاهیم بنیادی هوش مصنوعی مولد (Generative AI) و کاربردهای متنوع آن آشنا میشویم. ابتدا معرفی جامعی از مدلهای تولید متن و تصویر ارائه شده و سپس ساختار و معماری مدلهای زبانی بزرگ (LLM) بهطور دقیق بررسی میشود.
در ادامه، به سراغ فریمورک پرکاربرد Langchain میرویم و نحوه ساخت اپلیکیشنهایی مانند چتباتها، سیستمهای جستوجو، سیستمهای توصیهگر، تحلیل احساسات، طبقهبندی متن و تصویر، و همچنین پیادهسازی سیستمهای RAG را میآموزیم.
یکی از بخشهای کلیدی این دوره پرامپتنویسی است که شامل تکنیکهای پایه و پیشرفته برای بهبود خروجی مدلهای بزرگ زبانی و مدلهای تولیدکننده تصاویر میشود. علاوه بر این، با نحوه استفاده از مدلهای تجاری مانند مدلهای OpenAI و Anthropic , … از طریق api و همچنین مدلهای متنباز نظیر Llama 3 از طریق ابزارهایی مانند OLLAMA آشنا خواهیم شد.
در بخش دیگری از دوره، با مفهوم امبدینگ و کاربردهای آن در خوشهبندی، طبقهبندی، و مصورسازی دادهها آشنا میشوید. همچنین نحوه کار با دیتابیسهای برداری مانند Faiss و Chromadb برای ذخیرهسازی و بازیابی دادهها را یاد میگیرید.
یکی از محورهای اصلی این دوره، تمرکز جدی بر طراحی و توسعه RAG است. در این بخش، تکنیکهای پیشرفتهای برای بهبود عملکرد و کارایی این سیستمها ارائه خواهد شد.
در پایان دوره، چند پروژه عملی اجرا خواهد شد که شامل تحلیل احساسات، استخراج اطلاعات ساختارمند از اسناد، و پیادهسازی سیستمهای Multi-Agent با استفاده از کتابخانه Langgraph خواهد بود. همچنین بخش ویژهای به Fine-Tune کردن مدلهای زبانی با استفاده از زیرساختهای OpenAI اختصاص داده میشود.
این دوره به شما کمک میکند تا با ابزارها و تکنیکهای پیشرفته در دنیای هوش مصنوعی آشنا شوید و مهارتهای عملی لازم برای طراحی، توسعه و اجرای پروژههای پیشرفته را به دست آورید
بله این دوره برای کسانی طراحی شده که آشنایی کامل با برنامهنویسی پایتون دارند و میخواهند وارد دنیای هوش مصنوعی مولد شوند.
برای شرکت در این دوره، آشنایی اولیه با زبان برنامهنویسی پایتون کافی است. نیازی نیست که توسعهدهنده حرفهای پایتون باشید.
اگر پیشتر دورهای در حوزه هوش مصنوعی گذرانده باشید، استفاده شما از محتوای این کلاس بیشتر خواهد بود، اما این مورد ضروری نیست.
برای کمک به تمام شرکتکنندگان در ابتدای دوره، یک دوره 40 ساعته بصورت آفلاین و کاملا رایگان در قالب محتوای ویدیویی که مروری جامع و کاربردی بر اصول پایتون مقدماتی ارائه شود و شرکتکنندگان مهارتهای لازم برای ادامه دوره را به دست آورند و بدون هیچ مشکلی از مباحث استفاده کنند، در اختیار شما قرار میگیرد.
این دوره برای طیف گستردهای از مخاطبان طراحی شده است، از جمله:
علاقهمندان به هوش مصنوعی و یادگیری ماشین
برنامهنویسان و تحلیلگران داده
مدیران محصول و تصمیمگیران سازمانی
پژوهشگران، اساتید و دانشجویان
دوره شامل ۱۵۰ ساعت آموزش تخصصی است که بهصورت ترکیبی از جلسات نظری و تعاملی، کارگاههای عملی با پروژههای واقعی، تمرینهای کدنویسی و چالشهای کاربردی برگزار میشود.
برای شرکت در این دوره علاوه بر ساعات آموزشی در هفته، حداقل روزی یک تا یکساعت و نیم برای مرور مطالب و دستیابی به اهداف مورد نیاز میباشد.
بله، در گروه تلگرامی دانش پذیران، استاد و پشتیبان پاسخگوی سوالات شما خواهند بود. در طی دوره نیز امکان پرسش و پاسخ وجود دارد و جلسات آنلاین رفع اشکال نیز با حضور استاد و پشتیبان برگزار خواهد شد.
بله، دوره کاملاً پروژهمحور طراحی شده و شرکتکنندگان در پایان، یک یا چند پروژه واقعی در حوزه کاربرد LLMها در صنایع مختلف (مثل آموزش، سلامت، مالی، بازاریابی و…) ارائه میدهند.
تدریس این دوره توسط مجموعه ای از اساتید برجسته دانشگاه تهران و متخصصان فعال در صنعت مدل های زبانی بزرگ هوش مصنوعی مولد انجام میشود که لیست اساتید در همین صفحه همراه با افیلیشن درج شده است.
بله، بعد از گذراندن موفق دوره و تحویل پروژه، گواهینامه ی دوزبانه و قابل استعلام از دانشگاه تهران را دریافت خواهید کرد.
در طول دوره، یک پشتیبان دارید که بهصورت منظم ویدیوی جلسات را بعد از 24 الی 48 ساعت بارگزاری و پروژه ها را در تاریخ های مقرر بنا به صلاحدید اساتید دریافت میکند و راه ارتباطی شما با اساتید و مسئولین اجرایی دوره میباشد.
بله، دانشپذیران تا یکسال پس از پایان دوره میتوانند از طریق کانال اختصاصی، انجمن گفتگو و هم اندیشی با اساتید و پشتیبانی آموزشی بهرهمند شوند و ویدیوهای بارگزاری شده را بررسی نمایند.
بله. بسیاری از مدیران کسبوکارها، تیمهای محتوا، بازاریابان و توسعهدهندگان از این دوره برای ارتقای مهارتهای تیم خود استفاده میکنند.
برای اطلاع از جزییات شهریه دقیق دوره و تخفیفات ثبتنام با کارشناس مربوطه خانم صادقی با شماره تماس 09377516759 ارتباط برقرار نمائید.
اعضای انجمن ملی هوش مصنوعی ایران، دانشجویان و شرکتکنندگان دورههای آزاد تهراندیتا و فارغ التحصیلان دانشگاه تهران شامل تخفیف ویژه خواهند شد.
بله، علاوه بر شرایط متعارف تعیین شده توسط مجموعه، شما امکان پرداخت اقساط متناسب با بودجه ی خودتان (افزایش تعداد اقساط و کاهش پیش پرداخت) را هم دارید.
در پایان دوره، شرکتکنندگان توانایی طراحی و استفاده از مدلهای زبانی بزرگ در پروژههای شخصی یا سازمانی، ساخت ابزارهای مبتنی بر هوش مصنوعی مولد، تحلیل و شخصیسازی و استقرار LLMها را خواهند داشت.
بله، در طول دوره، شرکتکنندگان امکان برگزاری دورهمی ها، نشستهای حضوری و رویدادهای اختصاصی را با هماهنگی اساتید و پشتیبان خواهند داشت. این جلسات فرصتی ارزشمند برای ملاقات با اساتید، کارشناسان و فعالان صنعت هوش مصنوعی است و بستر مناسبی برای شبکهسازی حرفهای و همکاریهای علمی و شغلی آینده فراهم میکند.
بله، تهراندیتا و مجموعه همکاران آموزشی در حوزه هوش مصنوعی، امکان همکاری با دانشپذیران برتر را بررسی میکنند. افرادی که عملکرد برجستهای در پروژههای پایانی و ارزیابیهای فنی داشته باشند، میتوانند برای همکاری پژوهشی، تدریس، یا فعالیت در پروژههای واقعی هوش مصنوعی دعوت شوند.
قطعاً بله، در این دوره از بهروزترین نسخه کتابخانهها، ابزارها و نرمافزارهای تخصصی حوزه LLM و هوش مصنوعی مولد استفاده میشود؛ از جمله LangChain، OpenAI API، Hugging Face، Google Colab، Streamlit و ابزارهای تحلیل داده و پردازش زبان طبیعی. تمام سرفصلهای کلیدی و مهارتهای کاربردی روز دنیا در طراحی این دوره گنجانده شده است تا شرکتکنندگان برای ورود به صنعت هوش مصنوعی آمادگی کامل داشته باشند.
بله، افرادی که عملکرد برجسته در پروژهها داشته باشند، میتوانند از اساتید یا مدیران علمی دوره توصیهنامه رسمی دریافت کنند.
تمام تمرینها بهگونهای طراحی شدهاند که با استفاده از Google Colab، Kaggle Notebook و سرویسهای ابری رایگان قابل اجرا باشند.
بله، شرکتکنندگان برتر در لیست استعدادهای برتر مجموعه قرار گرفته و برای همکاری در پروژههای پژوهشی یا صنعتی معرفی میشوند.
بله، در پایان دوره، به درخواست دانشپذیران جلسات کوچینگ حرفهای برای بررسی مسیر شغلی در حوزه AI و LLM برگزار میشود.
بله، برای آشنایی عملی با زیرساختهای استقرار RAG در مقیاس سازمانی، از Deepset / Deefi استفاده میشود. شرکتکنندگان نحوه ساخت Pipelineهای پرسشوپاسخ، ایندکسگذاری برداری، و تنظیم مدلهای LLM را بهصورت عملی یاد میگیرند.
قطعاً. در چندین ماژول از دوره بهصورت گامبهگام طراحی و توسعه سیستمهای Retrieval-Augmented Generation (RAG) انجام میشود. از مرحله آمادهسازی داده و ساخت Embedding تا اتصال به پایگاه داده برداری (مثل Faiss، ChromaDB) و بهینهسازی دقیق عملکرد.
بله، همه تمرینها و پروژهها با استفاده از APIهای واقعی ChatGPT، Claude، Gemini و Llama 3 انجام میشوند. همچنین یاد میگیرید چطور با کلیدهای API، تنظیمات Token و context window، و طراحی pipelineهای چندمرحلهای کار کنید.
بله، عملا دوره مدلهای زبانی بزرگ و کاربرد هوش مصنوعی مولد، دوره تکمیلی دوره جامع علم داده و هوش مصنوعی هست و اگر تمایل داشته باشید آموختههای دوره جامع علم داده و هوش مصنوعی را عملیاتیتر کنید، این دوره به شدت توصیه میشود.
اگه تازهکار هستید و میخواید یاد بگیرید چطور با دادهها کار کنید، تحلیلشون کنید و مدلهای پیشبینی بسازید،
دوره علم داده و هوش مصنوعی براتون عالیه.
اما اگه پایهها رو بلد هستید و تمایل دارید بدانید هوشهایی مثل ChatGPT چطور کار میکنن و چطور میتونی ازشون استفاده یا حتی مدل مشابه بسازید،
باید سراغ دوره مدلهای زبانی بزرگ و هوش مصنوعی مولد بروید.
به منظور حل این مسئله، مشاوره تخصصی با اساتید ما بر اساس آموخته های پیشین شما بصورت کاملا رایگان ارائه میشود که میتوانید متناظر با جایگاه فعلیتان دوره مورد نظر را انتخاب کنید. لذا برای دریافت اطلاعات بیشتر با شماره تماس ۰۹۳۷۷۵۱۶۷۵۹ در ارتباط باشید.
دوره «علم داده و هوش مصنوعی» مبانی کار با داده، تحلیل آماری، یادگیری ماشین و کاربردهای عمومی هوش مصنوعی را آموزش میدهد و برای افرادی مناسب است که میخواهند پایهای و گامبهگام وارد این حوزه شوند.
در مقابل، دوره «مدلهای زبانی بزرگ و کاربرد هوش مصنوعی مولد» بر مدلهایی مانند ChatGPT و هوشهای مولد تمرکز دارد و مناسب افرادی است که با مفاهیم اولیه هوش مصنوعی آشنا هستند و میخواهند به صورت تخصصی با مدلهای زبانی و ابزارهای تولید محتوا توسط هوش مصنوعی کار کنند.
مشتریان تهران دیتا :