6/28/2025 12:45:10 PM
PARSDATA
Login
Sign up
  • محصولات
  • خدمات
  • پشتیبانی
  • دامنه
  • میزبانی وب
  • سرور اختصاصی
  • Colocation
  • سرور مجازی
  • سرویس های رایگان
  • نمایندگی ها

  • صفحه اصلی
  • مقالات
  • الگوریتم‌های هوش مصنوعی (بخش دوم)
کد: AC-FA-544 تاریخ انتشار: 1404/4/7
الگوریتم‌های هوش مصنوعی (بخش دوم)
الگوریتم‌های هوش مصنوعی (بخش دوم)

الگوریتم های هوش مصنوعی، پایه و اساس عملکرد فناوری های هوشمند هستند. این الگوریتم ها مجموعه ای از دستورالعمل ها یا قوانینی هستند که به ماشین ها امکان میدهند وظایف پیچیده ای مانند تحلیل داده ها، پیش بینی روندها، و حتی یادگیری از تجربیات را انجام دهند. برخلاف الگوریتم های سنتی که از قوانین ثابتی پیروی میکنند، الگوریتم های هوش مصنوعی توانایی سازگاری و بهبود عملکرد خود را با استفاده از داده ها دارند. این الگوریتم ها برای پردازش داده ها، اتخاذ تصمیم ها، حل مسائل، یادگیری، تفسیر زبان طبیعی، تشخیص الگو، وظایف تقویتی، و بسیاری دیگر از فعالیت های هوش مصنوعی طراحی شده اند. الگوریتم های هوش مصنوعی نقش اساسی در پیاده سازی سیستم های هوشمند دارند. این الگوریتم ها متنوع هستند و بر اساس نیازها و مسائل مختلف به کار می روند. با این وجود، APIهای هوش مصنوعی امکان بهره وری از قابلیت های هوش مصنوعی را بدون نیاز به دانشی عمیق در زمینه الگوریتم های پیچیده هوش مصنوعی فراهم کرده است.


الگوریتم‌های هوش مصنوعی (بخش دوم)


در بخش اول مقاله الگوریتم های هوش مصنوعی اولین دسته یعنی الگوریتم های یادگیری ماشین و در انتهای مقاله رویکرد دوم یعنی الگوریتم های هوش مصنوعی بدون نظارت بررسی در حال انجام بود که ادامه آن در این مقاله انجام خواهد شد.

این الگوریتم ها به عنوان ابزارهای قدرتمند در حوزه انواع هوش مصنوعی و تحلیل داده ها به کار می روند و در زمینه های بسیاری از پزشکی و تجارت تا علوم اجتماعی و صنعت مورد استفاده قرار می گیرند. برخی از الگوریتم های یادگیری بدون نظارت عبارتند از:

• کاوش خوشه ای یا Clustering :
الگوریتم هایی که داده ها را به خوشه های مشابه یا متفاوت تقسیم می کنند. به عنوان یکی از الگوریتم های هوش مصنوعی با رویکرد بدون نظارت، می توان به مدل K میانگین اشاره کرد. برای کار با این الگوریتم، باید تعداد خوشه های داده ها را از قبل تعریف کنیم تا مدل بر اساس آن، دسته ها را در خوشه های مجزا قرار دهد. فرض کنید برنامه نویس برای عدد K مقدار ۳ را تعریف می کند. بدین ترتیب، الگوریتم K میانگین به دنبال قرار دادن داده ها در سه خوشه مجزا است.

• کاوش انجمن ها یا Association Rule Mining :
برای یافتن روابط بین متغیرها در مجموعه های داده

• الگوریتم خوشه بندی آمیخته گاوسی :
یادگیری الگوریتم خوشه بندی آمیخته گاوسی مشابه با الگوریتم K میانگین است. هر دوی این الگوریتم ها به دنبال این هستند تا داده های مشابه را در خوشه های یکسان قرار دهند. با این حال تفاوتی که این دو الگوریتم با یکدیگر دارند، در محدوده تقسیم بندی خوشه ها است. خوشه های تشکیل شده توسط الگوریتم K میانگین به شکل دایره ای هستند در حالی که خوشه های حاصل شده از الگوریتم آمیخته گاوسی به شکل مستطیل است. الگوریتم آمیخته گاوسی به دلیل نحوه خوشه بندی داده ها در فضای مستطیل شکل، عملکرد دقیق تر و بهتری نسبت به الگوریتم K میانگین دارد.

• کاوش ابعاد یا Dimensionality Reduction :
مانند تحلیل مؤلفه اصلی PCA برای کاهش تعداد ویژگی های ورودی

• الگوریتم هوش مصنوعی تحلیل مولفه های اساسی :
یکی از کاربردهای الگوریتم های هوش مصنوعی بدون نظارت، کاهش ابعاد داده ها و فشرده سازی داده ها با ابعاد بالا است. در این روش، از مبدل های خطی به منظور بازنمایی داده های جدید استفاده می شود. این الگوریتم بر پایه دو مولفه اصلی کار می کند. اولین مولفه باعث می شود مقدار واریانس داده ها به حداکثر برسد و دومین مولفه بیشترین میزان واریانس داده ها را پیدا می کند.

• الگوریتم تجزیه مقادیر منفرد :
روش تجزیه مقادیر منفرد از دیگر الگوریتم های هوش مصنوعی بدون نظارت است که از آن نیز به منظور کاهش ابعاد داده ها استفاده می شود. در این روش، ماتریس اولیه داده ها به سه ماتریس مجزا با رنک پایین تبدیل می شوند و می توان از ماتریس های حاصل شده در محاسبات بعدی خود استفاده کرد.

• الگوریتم هوش مصنوعی خودرمزگذار :
می توان از شبکه های عصبی و الگوریتم های یادگیری عمیق به منظور کاهش ابعاد داده ها با رویکرد یادگیری بدون نظارت استفاده کرد. یکی از انواع شبکه های عصبی مصنوعی که بدین منظور استفاده می شود، الگوریتم خودرمزگذار است. این مدل، از سه بخش اصلی تشکیل شده است:
1. بخش رمزگذار یا Encoder : بخش رمزگذار، داده ها را از ورودی دریافت و آن ها را فشرده می کند. این عملیات فشرده سازی به نحوی انجام می شود که بتوان داده فشرده شده را در بخش رمزگشا به حالت اولیه خود بازگرداند.
2. بخش کد یا Code : به داده فشرده توسط بخش رمزگذار، کد گفته می شود که ورودی بخش رمزگشا است.
3. بخش رمزگشا یا Decoder : بخش رمزگشا کد دریافت شده را رمزگشایی می کند تا داده اصلی بازگردانده شود.



4. الگوریتم یادگیری تقویتی :
الگوریتم های یادگیری تقویتی، نوع دیگری از الگوریتم های یادگیری ماشین هستند که بر مبنای تجربیات و تعامل با محیط، یادگیری را انجام می دهند. در این الگوریتم ها، یک عامل یادگیری تقویتی با محیط تعامل دارد و با انجام اقدامات مختلف و دریافت پاداش ها و جرایم در نتیجه این اقدامات، به طور خودکار یادگیری را انجام می دهد. الگوریتم های یادگیری تقویتی دسته ای از الگوریتم های هوش مصنوعی هستند که از طریق تعامل با یک محیط برای به حداکثر رساندن سیگنال پاداش یاد می گیرند. با الهام از مفهوم یادگیری از طریق آزمون وخطا، یادگیری تقویتی بر آموزش عوامل تمرکز دارد که چگونه تصمیمات متوالی را برای دستیابی به یک هدف خاص اتخاذ کنند.

سومین رویکرد یادگیری الگوریتم های هوش مصنوعی، رویکرد یادگیری تقویتی است که عامل هوشمند یا Intelligent Agent بر اساس بازخوردهایی که از محیط پیرامون خود دریافت می کند، نحوه حل مسئله را یاد می گیرد و سعی دارد با دریافت اطلاعات از اطراف خود، عملکردها و اقدامات خود را بهبود دهد. در این روش از یادگیری، در ابتدای کار هیچ داده آموزشی برای مدل وجود ندارد و الگوریتم صرفاً با اطلاعاتی که از کنش و واکنش به دست می آورد، مسائل را یاد می گیرد. الگوریتم هوش مصنوعی تقویتی از چند مفهوم اصلی تشکیل شده است:

• عامل Agent : موجودی که با محیط در تعامل است و از آن می آموزد. اقدامات عامل بر وضعیت محیط تأثیر می گذارد و بازخوردی را در قالب پاداش یا مجازات دریافت می کند.
• محیط Enviroment : سیستم یا دنیای بیرونی که عامل در آن فعالیت می کند. بر اساس اقداماتش بازخوردی را به عامل ارائه می دهد و بر این اساس وضعیت خود را تغییر می دهد.
• حالت State: وضعیت فعلی یا نمایش محیط در یک زمان معین. اطلاعات مرتبطی را که عامل برای تصمیم گیری به آن نیاز دارد، جمع آوری می کند.
• اقدام Action : انتخاب هایی که در یک حالت خاص در اختیار نماینده قرار می گیرد. اقدامات بر وضعیت محیط و پاداش های بعدی تأثیر می گذارد.
• براساس سیاست خط مشی یا Policy : هدف الگوریتم تقویتی یادگیری سیاستی است که بر اساس آن تصمیم بگیرد در هر گام چه اقدامی را انجام دهد تا در نهایت به بیشترین پاداش برسد.
• پاداش Reward : بازخورد یا سیگنال ارزیابی ارائه شده به عامل بر اساس اقدامات آن. هدف عامل این است که پاداش تجمعی را در طول زمان به حداکثر برساند.

از کاربردهای مفید الگوریتم های تقویتی می توان بازی کردن باشد ، الگوریتم های یادگیری تقویتی موفقیت قابل توجهی در حوزه های بازی به دست آورده اند. در زمینه رباتیک، یادگیری تقویتی برای آموزش ربات ها برای انجام کارهای پیچیده مانند گرفتن اشیا یا حرکت در محیط های بدون ساختار استفاده می شود. در زمینه سیستم های خودمختار، الگوریتم های یادگیری تقویتی نقش کلیدی در توسعه سیستم های خودمختار ازجمله خودروهای خودران دارند و جایی که عوامل یاد می گیرند تصمیمات رانندگی مناسب را بر اساس بازخورد محیطی بگیرند. در کل الگوریتم های هوش مصنوعی یادگیری تقویتی، عوامل را قادر می سازد تا از طریق تعامل با محیط، یاد بگیرند و پاداش ها را به حداکثر برسانند. آن ها با موقعیت های پویا سازگار می شوند و در وظایف تصمیم گیری متوالی برتری می یابند.


الگوریتم های هوش مصنوعی یادگیری تقویتی را می توان بر اساس سیاست به دو دسته کلی زیر تقسیم کرد:

1. مدل های یادگیری تقویتی مبتنی بر محیط یا Model-based :
در مدل های مبتنی بر محیط، عامل هوشمند سعی دارد محیط پیرامون خود را درک کند و مدلی را بر پایه کنش خود و واکنش محیط بسازد. به بیان دیگر می توان گفت اگر عامل هوشمند بتواند پاداش هر کنش خود را پیش از انجام آن، پیش بینی کند، از روش یادگیری تقویتی مبتنی بر محیط تبعیت می کند. الگوریتم موقعیت-کنش-پاداش-موقعیت-کنش یا State-action-reward-state-action به اختصار SARSA به عنوان یکی از مهم ترین الگوریتم های مبتنی بر محیط محسوب می شود. الگوریتم SARSA یکی از الگوریتم های هوش مصنوعی محسوب می شود که هدف آن یادگیری سیاست روال تصمیم گیری مارکوف است. در این الگوریتم، در موقعیت فعلی، کنشی انجام می شود و به ازای آن کنش، به عامل پاداشی تخصیص داده شده و موقعیت عامل تغییر پیدا می کند و در این موقعیت جدید، باید کنشی را انجام دهد.

2. مدل های یادگیری تقویتی مستقل از محیط یا Model-free :
در الگوریتم های یادگیری تقویتی مستقل از محیط، عامل هوشمند بر اساس نتایجی که از کنش های خود می گیرد، سیاست Policy را یاد می گیرد. به عبارتی، عامل هوشمند در الگوریتم های تقویتی مستقل از محیط باید کنشی را انجام دهد تا واکنش محیط را دریافت کند و بر اساس آن، یادگیری را پیش ببرد. بدین ترتیب، چنین عاملی در این روش از یادگیری، قادر به پیش بینی پاداش کنش خود نیست. یکی از شناخته شده ترین الگوریتم های یادگیری تقویتی مستقل از محیط، روش Q-Learning است. الگوریتم Q-Learning بر پایه یک جدول جستجو تعریف می شود که این جدول، جدول Q نام دارد. سطرهای جدول Q وضعیت هر موقعیت یا وضعیت یعنی State عامل را نشان می دهد و ستون های این جدول نشان دهنده اقداماتی است که عامل هوشمند می تواند انجام دهد. مقادیر اولیه این جدول را می توان با عدد صفر مقداردهی کرد. با انجام هر کنش عامل هوشمند و دریافت واکنش از محیط، مقادیر خانه های جدول Q به روزرسانی می شوند و این تغییرات و روال یادگیری الگوریتم تا زمانی اتفاق می افتند که مقادیر جدول Q تغییر زیادی نداشته باشند.


5. الگوریتم های یادگیری عمیق :
الگوریتم های یادگیری عمیق، نوعی از الگوریتم های یادگیری ماشین هستند که با استفاده از شبکه های عصبی با ساختار عمیق و پیچیده، قادر به انجام وظایف پیچیده هوش مصنوعی می شوند. این الگوریتم ها با تعداد بالای لایه ها و تعداد بزرگی از وزن ها در شبکه های عصبی، توانایی یادگیری نمایش های پیچیده و سطح بالا از داده ها را دارا می شوند. در شبکه های عصبی، ساختارهای محاسباتی نیازمند به تعداد زیادی واحد محاسباتی مصنوعی به نام نورون هستند. این واحدها به طور مشترک با هم در ارتباط هستند و اطلاعات را از لایه ورودی به لایه های مخفی و سپس به لایه خروجی انتقال می دهند. شبکه های عصبی به علت شباهت ساختاری آنها با مغز انسان، قدرت بالایی در مدل سازی و تجزیه و تحلیل داده های پیچیده دارند. سه مدل این الگوریتم به شرح زیر میباشد:

• شبکه های عصبی کانولوشنی CNN
شبکه های عصبی کانولوشنی یا Convolutional Neural Networks ، نوعی از شبکه های عصبی هستند که برای پردازش تصاویر و ویدیوها به کار می روند. این شبکه ها از لایه های کانولوشنی برای استخراج ویژگی های مختلف از تصاویر استفاده می کنند. شبکه های عصبی کانولوشنی به علت توانایی بالای خود در تشخیص اشیاء و الگوها، در بسیاری از کاربردهای بینایی ماشین، از جمله تشخیص چهره، تشخیص تابلوهای راهنما و خودرو، تشخیص اشیاء در تصاویر پزشکی و غیره، استفاده می شوند.

• شبکه های عصبی بازگشتی یا RNN
شبکه های عصبی بازگشتی یا Recurrent Neural Networks ، نوع دیگری از شبکه های عصبی هستند که برای پردازش داده های دنباله ای، مانند متن، گفتار و سیگنال های زمانی به کار می روند.

• ترانسفورمرها Transformers:
ترانسفورمرها نوع دیگری از شبکه های عصبی هستند که برای پردازش داده ها با دنباله های طولانی و ارتباطات زمانی بین عناصر مختلف، به خصوص در ترجمه ماشینی و پردازش زبان طبیعی به کار می روند. از مهم ترین کاربردهای ترانسفورمرها می توان به ترجمه ماشینی، خلاصه سازی متن، تولید شرح بر تصاویر و پردازش زبان طبیعی اشاره کرد.


6. الگوریتم های تکاملی

الگوریتم های تکاملی بعنوان دومین دسته از الگوریتم های هوش مصنوعی نوعی از الگوریتم های محاسباتی هستند که با الهام از فرآیند تکامل در طبیعت و براساس اصول بیولوژیکی ژنتیک ایجاد شده اند. این الگوریتم ها با استفاده از مفاهیمی همچون انتخاب طبیعی، تنوع ژنتیکی، ترکیب ژن ها و ارزیابی عملکرد، به طور مشابه با فرآیند تکامل طبیعی، به تکامل و بهبود جمعیت می پردازند. الگوریتم های الهام گرفته از طبیعت یا Nature-Inspired Algorithms، نوعی از الگوریتم های تکاملی هستند که تغییرات و بهبودهای خود را از مفاهیم موجود در طبیعت، مانند فرآیند تکاملی در جمعیت حیوانات و گیاهان، مشابه ساختار های زنده و تکامل طبیعی انسان، به دست می آورند. این الگوریتم ها برای حل مسائل بهینه سازی، بهبود طراحی و مسائل پیچیده دیگر مورد استفاده قرار می گیرند. الگوریتم کلونی مورچه ها و الگوریتم کرم شب تاب مثال هایی از این الگوریتم ها هستند.



7. الگوریتم های کاوش داده

الگوریتم های کاوش داده یا Data Mining Algorithms این الگوریتم بعنوان دومین دسته از الگوریتم های هوش مصنوعی، مجموعه ای از تکنیک ها و روش های محاسباتی هستند که برای استخراج الگوها، اطلاعات، و روابط پنهان در داده های حجیم به کار می روند. این الگوریتم ها بر اساس تحلیل و پردازش داده های بزرگ و متنوع، اطلاعات ارزشمند و الگوهای مهم را به دست می آورند. برخی از الگوریتم های کاوش داده عبارتند از:

• K-Means Clustering : این الگوریتم برای خوشه بندی داده ها بر اساس شباهت های آنها به کار می رود. تلاش می کند داده ها را به k خوشه تقسیم کند به نحوی که اعضای هر خوشه به هم شبیه باشند.

• Decision Trees : درخت های تصمیم یک ساختار گرافی هستند که بر اساس سوالات بله یا خیر تصمیم می گیرند. این سوالات با هدف تفکیک داده ها به دست می آیند و درخت تصمیم به تصمیمات پیچیده تر و بازنمودن الگوها می رسد.

• Apriori Algorithm : این الگوریتم برای یافتن قوانین انجمن یا Association Rules در داده ها استفاده می شود. این قوانین نشان دهنده ارتباطات و انجمن های میان داده ها هستند.

• Random Forest : این الگوریتم ترکیبی از چندین درخت تصمیم است معمولاً درخت های تصمیم تصادفی و برای دسته بندی و پیش بینی به کار می رود. هر درخت به صورت جداگانه آموزش داده می شود و سپس نتایج آنها ترکیب می شوند.

• Support Vector Machines یا SVM : این الگوریتم برای طبقه بندی و رگرسیون به کار می رود. هدف آن ایجاد یک هایپرصفحه hyperplane به نحوی است که بیشتر نقاط داده از یک طرف و نقاط داده دیگر از طرف دیگر این هایپرصفحه قرار گیرند.

• Principal Component Analysis یا PCA : این الگوریتم برای کاهش ابعاد داده ها و استخراج ویژگی های مهم به کار می رود. با استفاده از PCA، اطلاعات مهم داده ها در یک فضای کمتر ابعادی نمایان می شوند.


کاربردهای الگوریتم های کاوش داده

• بانکداری و مالی: تشخیص تقلب در تراکنش های مالی و پیش بینی رفتارهای مشتری
• تجارت الکترونیک: توصیه محصولات بر اساس رفتار خریداران و پیش بینی موجودی محصولات
• پزشکی: شناسایی الگوهای بیماری، تحلیل داده های بزرگ سلامت، و پیش بینی خطر ابتلا به بیماری ها
• علوم اجتماعی: تحلیل رفتار اجتماعی و الگوهای تفاوت در جوامع
• صنعت و تولید: بهبود عملکرد فرایندها، کاهش ضایعات، و تشخیص خرابی در تجهیزات


مزایا الگوریتم های کاوش داده

• استخراج الگوهای مهم: الگوریتم های کاوش داده قادر به استخراج الگوها، ارتباطات و اطلاعات مهم از داده های حجیم هستند.
• کشف اطلاعات ناشناخته: قابلیت کشف اطلاعات جدید و ناشناخته از داده ها، که ممکن است برای تصمیم گیری و استراتژی های تجاری مفید باشد.
• پیش بینی و تصمیم گیری: استفاده از الگوریتم های کاوش داده برای پیش بینی رویدادها و تصمیم گیری های مبتنی بر داده.


معایب الگوریتم های کاوش داده

• وابستگی به کیفیت داده: نتایج کاوش داده ممکن است تحت تأثیر کیفیت و نظافت داده ها قرار بگیرد
• پیچیدگی مدل ها: برخی از مدل های کاوش داده ممکن است پیچیده باشند و نیاز به تنظیمات دقیق داشته باشند
• پیش پردازش داده ها: نیاز به مراحل پیش پردازش و تمیزکاری داده ها قبل از اجرای الگوریتم ها


ادامه مقاله را در بخش سوم مطالعه فرمایید.

  • نویسنده: امین ابراهیمی
منبع: پارس دیتا
آدرس منبع: https://www.parsdata.com/articles/artificial-intelligence-algorithms-part-2
  • پارس ديتا |
  • مقالات |
  • اخبار |
  • انتقادات و پیشنهادات |
  • توافقنامه |
  • رویه حفاظت |
  • رفع مسئولیت |
  • كار در پارس ديتا |
  • نقشه سایت |
  • درباره ما |
  • تماس با ما
Follow us:
W3C:
ISO-CERT: