دنیای هوش مصنوعی، پیچیده و پر از اصطلاحات تخصصی است که درک آن را برای عموم دشوار میکند. این راهنمای جامع به منظور شفافسازی و ارائه تعاریف کلیدی واژگان پرکاربرد در حوزه هوش مصنوعی و تکنولوژی تدوین شده است. هدف ما کمک به متخصصان و علاقهمندان برای درک عمیقتر این فناوریها و تسهیل دسترسی به اطلاعات دقیق است. این واژهنامه به طور منظم با کشف روشهای نوین و شناسایی خطرات احتمالی در هوش مصنوعی بهروزرسانی خواهد شد.
مفاهیم کلیدی هوش مصنوعی
AGI (هوش مصنوعی عمومی)
هوش مصنوعی عمومی (AGI) در واقع به هوش مصنوعیهایی گفته میشه که در انجام اکثر کارها از انسانها توانمندترند. تصور کنید رباتی که هم میتونه مثل یه برنامهنویس کد بنویسه، هم مثل یه پزشک بیماری تشخیص بده و هم مثل یه هنرمند نقاشی کنه! سم آلتمن، مدیر عامل OpenAI، AGI رو به یه “همکار انسانی متوسط” تشبیه میکنه. در حالی که خودشون در OpenAI، AGI رو “سیستمهای خودمختار بسیار توانمند که در کارهای اقتصادی از انسانها بهتر عمل میکنن” تعریف کردن. گوگل دیپمایند هم نظر مشابهی داره و AGI رو هوش مصنوعیای میدونه که “در اکثر کارهای شناختی، حداقل به اندازه انسانها توانمنده”. کمی پیچیده به نظر میرسه، نه؟ نگران نباشید، حتی متخصصان این حوزه هم گاهی گیج میشن!
عامل هوش مصنوعی (AI Agent)
عامل هوش مصنوعی ابزاریه که با کمک هوش مصنوعی، کارهایی رو برای شما انجام میده که یه چتبات ساده از عهدهاش برنمیاد. مثلاً میتونه هزینههاتون رو ثبت کنه، بلیط هواپیما یا میز رستوران رزرو کنه، یا حتی کدنویسی و نگهداری کد رو انجام بده. این مفهوم هنوز در حال توسعهست و ممکنه برای افراد مختلف معنیهای متفاوتی داشته باشه. اما ایده اصلی اینه که یه سیستم خودمختار داشته باشیم که بتونه از چند سیستم هوش مصنوعی مختلف کمک بگیره و کارهای چندمرحلهای رو خودش انجام بده.
زنجیره تفکر (Chain of Thought)
وقتی یه سوال ساده میپرسیم، مغز ما خیلی سریع جواب میده. مثلاً “کدوم حیوون قدبلندتره، زرافه یا گربه؟” اما برای بعضی سوالات پیچیدهتر، نیاز به مراحل میانی داریم. مثلاً اگه یه کشاورز ۴۰ تا سر و ۱۲۰ تا پا از مرغ و گاوهاش داره، چند تا مرغ و گاو داره؟ برای این سوال باید کمی فکر کنیم و شاید یه معادله ساده بنویسیم.
در هوش مصنوعی و بخصوص در مدلهای زبان بزرگ (LLM)، زنجیره تفکر یعنی اینکه یه مسئله بزرگ رو به قدمهای کوچکتر و میانی تقسیم کنیم. این کار باعث میشه کیفیت نهایی جواب خیلی بهتر بشه. درست مثل همون مثال کشاورز، مدل هوش مصنوعی اول میاد تعداد کل پاها رو بر تعداد سرها تقسیم میکنه و بعد با یه معادله ساده به جواب میرسه (۲۰ مرغ و ۲۰ گاو). معمولاً این روش زمان بیشتری برای رسیدن به جواب میگیره، اما در عوض جواب دقیقتر و صحیحتری به دست میاد، مخصوصاً در مسائل منطقی یا کدنویسی.

یادگیری عمیق (Deep Learning)
یادگیری عمیق یه شاخه مهم از یادگیری ماشینیه که در اون الگوریتمهای هوش مصنوعی بر اساس شبکههای عصبی مصنوعی (ANN) چند لایه طراحی میشن. این ساختار پیچیده بهشون اجازه میده ارتباطات پیچیدهتری رو در دادهها پیدا کنن، برعکس سیستمهای سادهتر یادگیری ماشینی. ساختار الگوریتمهای یادگیری عمیق از نحوه کار نورونها در مغز انسان الهام گرفته شده.
مدلهای یادگیری عمیق خودشون ویژگیهای مهم دادهها رو شناسایی میکنن و نیازی نیست مهندسها این ویژگیها رو براشون تعریف کنن. این سیستمها میتونن از اشتباهاتشون درس بگیرن و با تکرار و تنظیم، خروجیهای خودشون رو بهتر کنن. البته برای اینکه این مدلها خوب کار کنن، به حجم زیادی از دادهها (میلیونها یا بیشتر) نیاز دارن و آموزش دادنشون هم معمولاً زمان و هزینه بیشتری میبره.
انتشار (Diffusion)
انتشار فناوری هستهای بسیاری از مدلهای هوش مصنوعی هست که هنر، موسیقی و متن تولید میکنن. این روش که از فیزیک الهام گرفته شده، ساختار دادهها (مثلاً عکسها یا آهنگها) رو با اضافه کردن نویز به آرامی “تخریب” میکنه تا چیزی ازشون باقی نمونه. در فیزیک، انتشار برگشتناپذیره، مثلاً شکر وقتی تو قهوه حل میشه، دیگه نمیشه به شکل مکعبی برگردوندش. اما سیستمهای انتشار در هوش مصنوعی سعی میکنن یه فرآیند “انتشار معکوس” رو یاد بگیرن تا بتونن دادههای تخریب شده رو دوباره بسازن. این کار بهشون اجازه میده تا از نویز، دادههای جدید و باکیفیت تولید کنن.
تقطیر (Distillation)
تقطیر یه تکنیکه که برای استخراج دانش از یه مدل هوش مصنوعی بزرگتر به کار میره. تصور کنید یه مدل “معلم” داریم که خیلی بزرگه و یه مدل “دانشآموز” که کوچکتره. توسعهدهندهها درخواستهایی رو به مدل معلم میفرستن و خروجیها رو ثبت میکنن. بعد این خروجیها رو برای آموزش مدل دانشآموز استفاده میکنن تا مدل دانشآموز یاد بگیره مثل مدل معلم رفتار کنه.
این روش باعث میشه یه مدل کوچکتر و کارآمدتر از یه مدل بزرگتر بسازیم، اون هم با حداقل از دست دادن کیفیت. احتمالاً OpenAI هم با همین روش، GPT-4 Turbo رو که نسخه سریعتر GPT-4 هست، توسعه داده. البته باید بدونید که تقطیر از مدلهای رقیب معمولاً قوانین استفاده از API و چتباتهای هوش مصنوعی رو نقض میکنه.
تنظیم دقیق (Fine-tuning)
تنظیم دقیق به معنی آموزش بیشتر یک مدل هوش مصنوعیه تا عملکردش برای یه کار یا حوزه خاص، بهتر بشه. مثلاً ممکنه یه مدل رو برای تولید متن کلی آموزش داده باشن، اما بعد با اضافه کردن دادههای تخصصیتر (مثلاً دادههای پزشکی)، اون رو برای نوشتن مقالات پزشکی “تنظیم دقیق” کنن.
خیلی از استارتاپهای هوش مصنوعی، مدلهای زبان بزرگ رو به عنوان نقطه شروع کارشون انتخاب میکنن و بعد با تنظیم دقیق و اضافه کردن دانش تخصصی خودشون، محصولی خاص و کارآمد برای یه صنعت یا وظیفه خاص تولید میکنن.
GAN (شبکه مولد رقابتی)
GAN یا شبکه مولد رقابتی، یه نوع چارچوب یادگیری ماشینیه که تو پیشرفتهای مهم هوش مصنوعی مولد، مخصوصاً در تولید دادههای واقعگرایانه (مثل ابزارهای دیپفیک)، نقش کلیدی داره. GANها از دو شبکه عصبی تشکیل شدن که با هم رقابت میکنن. یکی از این شبکهها (“مولد”) با استفاده از دادههای آموزشی خودش، یه خروجی تولید میکنه و اون رو به شبکه دوم (“تفکیککننده”) میده تا ارزیابیش کنه. شبکه دوم هم نقش یه منتقد رو داره و تشخیص میده که خروجی تولید شده طبیعیه یا توسط هوش مصنوعی ساخته شده. این رقابت باعث میشه که خروجیهای هوش مصنوعی به مرور زمان واقعگرایانهتر بشن، بدون اینکه نیاز به دخالت انسانی باشه. البته GANها بیشتر برای کاربردهای محدودتر (مثل تولید عکس یا ویدئوهای واقعگرایانه) مناسب هستن، نه برای هوش مصنوعی عمومی.

توهم (Hallucination)
توهم اصطلاح رایج در صنعت هوش مصنوعی برای وقتیه که مدلهای هوش مصنوعی اطلاعات نادرست یا خیالی تولید میکنن. این یه مشکل بزرگه برای کیفیت هوش مصنوعی.
خروجیهای هوش مصنوعی مولد که دچار توهم میشن، میتونن گمراهکننده باشن و حتی خطرات واقعی به دنبال داشته باشن (مثلاً مشاوره پزشکی اشتباه). به همین دلیل، اکثر ابزارهای هوش مصنوعی مولد هشدار میدن که کاربران باید پاسخهای تولید شده رو بررسی کنن.
تصور میشه مشکل توهم به دلیل شکاف در دادههای آموزشی به وجود میاد. برای هوش مصنوعی مولد عمومی (یا مدلهای پایه)، حل این مشکل خیلی سخته، چون به سادگی داده کافی در دنیا وجود نداره تا مدلها رو برای پاسخ به همه سوالات ممکن آموزش داد. همین توهمها باعث شده که تمایل به ساخت مدلهای هوش مصنوعی تخصصیتر (یعنی هوش مصنوعیهای خاص یک حوزه) بیشتر بشه تا احتمال اشتباه و اطلاعات غلط کمتر بشه.
استنتاج (Inference)
استنتاج به فرآیند “اجرا کردن” یه مدل هوش مصنوعی گفته میشه. یعنی وقتی یه مدل رو رها میکنیم تا بر اساس دادههایی که قبلاً دیده، پیشبینی کنه یا نتیجهگیری کنه. برای اینکه یه مدل بتونه استنتاج کنه، حتماً باید قبلاً آموزش دیده باشه. یه مدل باید الگوها رو در یه مجموعه داده یاد بگیره تا بتونه به درستی از این دادهها استفاده کنه.
انواع مختلفی از سختافزار میتونن استنتاج رو انجام بدن، از پردازندههای گوشیهای هوشمند گرفته تا کارتهای گرافیک قوی (GPU) و شتابدهندههای هوش مصنوعی. اما خب، همه اونا به یه اندازه خوب نیستن. مثلاً یه مدل خیلی بزرگ برای پیشبینی روی لپتاپ کلی زمان میبره، در حالی که روی یه سرور ابری با تراشههای قوی هوش مصنوعی خیلی سریعتر عمل میکنه.
مدل زبان بزرگ (Large Language Model – LLM)
مدلهای زبان بزرگ (LLM)، همون مدلهای هوش مصنوعی هستن که پشت دستیارهای هوش مصنوعی محبوب مثل ChatGPT، Claude، Gemini گوگل، Llama متا، Microsoft Copilot یا Mistral’s Le Chat قرار دارن. وقتی شما با یه دستیار هوش مصنوعی چت میکنید، در واقع دارید با یه مدل زبان بزرگ صحبت میکنید که درخواست شما رو پردازش میکنه، چه مستقیماً و چه با کمک ابزارهای دیگه مثل مرورگر وب یا مفسر کد.
LLMها شبکههای عصبی عمیق هستن که از میلیاردها پارامتر عددی (یا وزن) تشکیل شدن. این پارامترها به مدل کمک میکنن تا روابط بین کلمات و عبارات رو یاد بگیره و یه “نقشه چندبعدی” از زبان ایجاد کنه.
این مدلها با بررسی میلیاردها کتاب، مقاله و رونوشت، الگوهای موجود در زبان رو یاد میگیرن. وقتی شما به یه LLM یه سوال یا درخواست میدید، مدل محتملترین الگویی رو که با درخواست شما مطابقت داره، تولید میکنه. بعد بر اساس چیزی که قبلاً گفته شده، محتملترین کلمه بعدی رو حدس میزنه و این فرآیند همینطور ادامه پیدا میکنه تا جواب کامل بشه.
شبکه عصبی (Neural Network)
شبکه عصبی به همون ساختار الگوریتمی چند لایه اشاره داره که زیربنای یادگیری عمیق و به طور کلی، تمام این پیشرفتهای اخیر در ابزارهای هوش مصنوعی مولد (مخصوصاً بعد از ظهور مدلهای زبان بزرگ) رو تشکیل میده.
ایده الهام گرفتن از مغز انسان برای طراحی الگوریتمهای پردازش داده به دهه ۱۹۴۰ برمیگرده، اما چیزی که واقعاً به این نظریه قدرت بخشید، ظهور سختافزار پردازش گرافیکی (GPU) از طریق صنعت بازیهای ویدیویی بود. این تراشهها برای آموزش الگوریتمهایی با لایههای بسیار بیشتر از گذشته مناسب بودن و باعث شدن سیستمهای هوش مصنوعی مبتنی بر شبکه عصبی در حوزههای مختلفی مثل تشخیص صدا، ناوبری خودکار و کشف دارو، عملکرد فوقالعادهای داشته باشن.
آموزش (Training)
آموزش در هوش مصنوعی یادگیری ماشینی، یعنی اینکه به مدل داده وارد کنیم تا از الگوها یاد بگیره و خروجیهای مفیدی تولید کنه.
قبل از آموزش، ساختار ریاضی مدل فقط یه سری لایه و اعداد تصادفیه. فقط با آموزشه که مدل هوش مصنوعی شکل میگیره. در واقع، این فرآیند واکنش سیستم به ویژگیهای موجود در دادههاست که بهش اجازه میده خروجیها رو به سمت یه هدف خاص (مثل تشخیص تصاویر گربه یا سرودن یه هایکو) تنظیم کنه.
البته همه هوش مصنوعیها نیاز به آموزش ندارن. هوش مصنوعیهای مبتنی بر قوانین که بر اساس دستورالعملهای از پیش تعریف شده عمل میکنن (مثلاً چتباتهای خطی)، نیازی به آموزش ندارن. اما این نوع سیستمها معمولاً محدودتر از سیستمهای خودآموز (که خوب آموزش دیدن) هستن.
آموزش میتونه پرهزینه باشه چون به ورودیهای زیادی نیاز داره و حجم ورودیهای مورد نیاز برای این مدلها معمولاً رو به افزایش بوده.
گاهی اوقات میشه از روشهای ترکیبی استفاده کرد تا توسعه مدل سریعتر بشه و هزینهها مدیریت بشن. مثلاً با تنظیم دقیق یه هوش مصنوعی مبتنی بر قوانین با دادهها، میشه توسعه رو با داده، قدرت پردازش، انرژی و پیچیدگی الگوریتمی کمتری نسبت به ساخت از صفر انجام داد.
یادگیری انتقالی (Transfer Learning)
یادگیری انتقالی یه تکنیکه که در اون از یه مدل هوش مصنوعی که قبلاً آموزش دیده، به عنوان نقطه شروع برای ساخت یه مدل جدید برای یه کار متفاوت (ولی معمولاً مرتبط) استفاده میشه. این یعنی دانش به دست آمده از آموزشهای قبلی رو میشه دوباره به کار برد.
این روش میتونه با کوتاه کردن فرآیند توسعه مدل، باعث صرفهجویی در هزینهها بشه. همچنین وقتی دادههای مربوط به کار جدید محدوده، خیلی مفیده. اما باید به این نکته توجه داشت که این روش محدودیتهایی هم داره. مدلهایی که برای به دست آوردن قابلیتهای کلی به یادگیری انتقالی متکی هستن، احتمالاً برای عملکرد خوب در حوزه تخصصیشون، به آموزش با دادههای اضافی نیاز دارن.

وزنها (Weights)
وزنها در آموزش هوش مصنوعی نقش اساسی دارن. اونا تعیین میکنن که چقدر به ویژگیهای مختلف (یا متغیرهای ورودی) در دادههای آموزشی، اهمیت (یا وزن) داده بشه. این کار باعث میشه که خروجی مدل هوش مصنوعی شکل بگیره.
به عبارت دیگه، وزنها پارامترهای عددی هستن که مشخص میکنن چی تو یه مجموعه داده برای کار آموزشی، مهمتره. اونا این کار رو با ضرب در ورودیها انجام میدن. آموزش مدل معمولاً با وزنهایی شروع میشه که به طور تصادفی انتخاب شدن، اما با پیشرفت فرآیند، وزنها طوری تنظیم میشن که مدل به خروجیای برسه که بیشتر با هدف مطابقت داره.
مثلاً، یه مدل هوش مصنوعی که برای پیشبینی قیمت مسکن بر اساس دادههای قدیمی آموزش دیده، میتونه وزنهایی برای ویژگیهایی مثل تعداد اتاق خواب و حمام، مستقل یا نیمه مستقل بودن ملک، داشتن پارکینگ، گاراژ و غیره داشته باشه.
در نهایت، وزنهایی که مدل به هر کدوم از این ورودیها میده، نشوندهنده اینه که بر اساس دادههای موجود، چقدر بر ارزش یه ملک تأثیر میذارن.
این واژهنامه به طور مستقیم به مفاهیم بنیادین هوش مصنوعی و تکنولوژیهای مرتبط با آن میپردازد. درک این اصطلاحات برای هر فردی که در زمینه فناوری، مدیریت داده، توسعه نرمافزار، یا حتی تصمیمگیریهای استراتژیک در عصر دیجیتال فعالیت میکند، ضروری است. پیشرفتهای اخیر در هوش مصنوعی، بهویژه در حوزههایی مانند یادگیری عمیق، مدلهای زبان بزرگ و شبکههای مولد رقابتی، فرصتها و چالشهای جدیدی را در صنایع مختلف ایجاد کرده است. از اتوماسیون فرآیندها و بهبود تصمیمگیری با تحلیل دادهها تا ایجاد محتوای خلاقانه و شخصیسازی تجربه کاربری، هوش مصنوعی در حال تغییر شکل دنیای ماست. با افزایش وابستگی به این فناوریها، آگاهی از مفاهیم کلیدی آن، نه تنها یک مزیت رقابتی، بلکه یک ضرورت برای مواجهه با آیندهای مبتنی بر داده و هوش مصنوعی است