Artificial-Intelligence-Word-Cloud

دانشنامه هوش مصنوعی | اصطلاحات و مفاهیم پایه هوش مصنوعی

اگر به تازگی، به حوزه هوش مصنوعی علاقه‌مند شده‌اید و در حال مطالعه مقالات در این حوزه هستید قطعا پیش آمده است که در مکالمات خود با متخصصین و یا در هنگام مطالعه مقالات با اصطلاحات تخصصی و پیچیده روبرو شوید. شاید در ابتدا شوق و علاقه به این موضوع شما را در مسیر نگه دارد اما به مرور و با افزایش سردرگمی و گیجیِ حاصل از ندانسته ها دچار دلسردی شوید و احساس بد نفهمیدن مباحث باعث ترک فرایند یادگیریتان شود.

این دانشنامه رایگان از اصطلاحات و مفاهیم هوش مصنوعی، به شما کمک خواهد کرد تا با علم کافی، به این حوزه ورود کنید و از دیدن و شنیدن برخی عبارات و مفاهیم دچار سردرگمی نشوید.  

درک کامل مفاهیمی مانند هوش مصنوعی یا یادگیری ماشین ممکن است پیچیده باشد. اما چه به عنوان یک کاربر غیر متخصص و چه به عنوان یک متخصص در حال رشد، این منبع می‌تواند به شما کمک کند تا اصطلاحات هوش مصنوعی را مانند یک حرفه‌ای یاد بگیرید و استفاده کنید.

در عصر دیجیتال امروز، درک اصطلاحات هوش مصنوعی اهمیت فزاینده‌ای پیدا کرده است، زیرا هوش مصنوعی در جنبه‌های بیشتری از زندگی روزمره ما ادغام می‌شود. ما در حال حاضر از هوش مصنوعی در بیشتر فعالیت‌های روزانه فناورانه خود استفاده می‌کنیم. به همین دلیل داشتن یک راهنمای مبتدی که بتواند به سؤالات ابتدایی ما پاسخ دهد، بسیار ضروری است. مثلا اگر نمی‌توانید تفاوت بین «AGI» (هوش مصنوعی عمومی) و «RAG» (تولید پاسخ تقویت شده) را تشخیص دهید، نگران نباشید! چون ما اینجا هستیم تا به شما کمک کنیم.

مزیت مهم دیگر درک هوش مصنوعی، آماده شدن برای تحولات آینده و بهره‌برداری از فرصت‌هایی است که هوش مصنوعی می‌تواند فراهم کند. در انتهای مقاله یک واژه‌نامه با بیش از ۶۰ اصطلاح هوش مصنوعی به ترتیب حروف الفبا از A تا Z در اختیار شما قرار گرفته است.

اما اگر مایل هستید تا کمی بیشتر از مفاهیم بدانید، پیشنهاد میکنم عجله نکنید و در ادامه مقاله همراه ما باشید و به توضیحات فشرده شده نگاهی بیاندازید. اما باز هم اگر به سرعت به معنای عبارات و کلمات این حوزه نیاز دارید کافیست به انتهای مقاله مراجعه کنید و از لغت نامه هوش مصنوعی تهیه شده بهره مند شوید. میتوانید معنای هر کلمه یا عبارت مربوط به هوش مصنوعی را که برایتان گنگ است، در انتهای مقاله پیدا کنید.

هوش مصنوعی دقیقاً چیست؟

هوش مصنوعی اغلب به صورت مخفف «Artificial Intelligence – AI» استفاده می‌شود. از نظر فنی، اصطلاح «هوش مصنوعی» به شاخه‌ای از علوم کامپیوتر اشاره دارد که به ساخت سیستم‌های کامپیوتری با توانایی تفکر شبیه به انسان اختصاص یافته است.

اما در حال حاضر، ما بیشتر درباره هوش مصنوعی به عنوان یک فناوری یا حتی یک موجودیت می‌شنویم، و تعیین دقیق معنای آن دشوارتر است. این اصطلاح همچنین اغلب به عنوان یک کلمه کلیدی بازاریابی استفاده می‌شود، که تعریف آن را انعطاف‌پذیرتر از آنچه باید باشد، می‌کند.

به عنوان مثال، گوگل زیاد درباره سرمایه‌گذاری‌هایش در هوش مصنوعی طی سال‌های گذشته صحبت می‌کند. این به بهبود بسیاری از محصولاتش توسط هوش مصنوعی و ارائه ابزارهایی مانند «Gemini» که به نظر هوشمند می‌رسند، اشاره دارد. همچنین مدل‌های هوش مصنوعی زیربنایی وجود دارند که بسیاری از ابزارهای هوش مصنوعی را پشتیبانی می‌کنند، مانند «GPT» از «OpenAI». از طرف دیگر، مارک زاکربرگ، مدیرعامل متا، از هوش مصنوعی به عنوان یک اسم برای اشاره به چت‌بات‌های فردی استفاده کرده است.

همانطور که شرکت‌های بیشتری سعی می‌کنند هوش مصنوعی را به عنوان محصول شگفت انگیز خود بفروشند، نحوه استفاده آنها از این اصطلاح و سایر واژگان مرتبط آن ممکن است درآینده حتی گیج‌کننده‌تر شود. مجموعه‌ای از عبارات وجود دارد که احتمالاً در مقالات یا تبلیغات مربوط به هوش مصنوعی با آنها روبرو خواهید شد. برای کمک به درک بهتر آنها، فشرده ای از بسیاری از اصطلاحات کلیدی در هوش مصنوعی که در حال حاضر رایج هستند را برای استفاده شما گردآوری کرده‌ایم.

شروع یادگیری دانشنامه هوش مصنوعی

(توجه داشته باشید که تنها یک نمای کلی ابتدایی از بسیاری از این اصطلاحات ارائه می‌شود. بسیاری از مفاهیم اغلب می‌توانند بیش از این فنی و تخصصی شوند، اما امیدواریم این مقاله به شما درک مناسبی از اصول اولیه بدهد.

یادگیری ماشین یا «Machine Learning»

سیستم‌های یادگیری ماشین از روی داده‌ها آموزش می‌بینند تا بتوانند درباره اطلاعات جدید پیش‌بینی انجام دهند. به این ترتیب، آنها یادگیرنده هستند. یادگیری ماشین یک حوزه درونی هوش مصنوعی است و برای بسیاری از فناوری‌های هوش مصنوعی حیاتی است.

هوش مصنوعی عمومی یا «AGI» «Artificial General Intelligence»

هوش مصنوعی‌ای که به اندازه انسان یا حتی باهوش‌تر است. شرکت «OpenAI» به شدت در حال سرمایه‌گذاری در «AGI» است. «AGI» می‌تواند یک فناوری فوق‌العاده قدرتمند باشد. اما برای بسیاری از افراد، ترسناک‌ترین چشم‌انداز درباره امکانات هوش مصنوعی است. اگر میخواهید با این ترس آشنا شوید به تمام فیلم‌هایی که درباره تسخیر دنیا توسط ماشین‌های فوق هوشمند است فکر کنید! اگر این کافی نیست، باید بگوییم که کار بر روی «ابرهوش» یا هوش مصنوعی‌ای که بسیار باهوش‌تر از انسان است نیز در حال انجام است.

هوش مصنوعی مولد یا «Generative AI»

یک فناوری هوش مصنوعی که قادر به تولید متن، تصاویر، کد و موارد دیگر است. برای درک آن به تمام پاسخ‌ها و تصاویر جالب (و گاهی مشکل‌ساز) که توسط «ChatGPT» یا «Gemini» گوگل تولید شده‌اند فکر کنید. ابزارهای هوش مصنوعی مولد توسط مدل‌های هوش مصنوعی که معمولاً بر روی حجم عظیمی از داده‌ها آموزش دیده‌اند، پشتیبانی می‌شوند.

توهمات یا «Hallucinations»

از آنجا که ابزارهای هوش مصنوعی مولد، تنها به اندازه داده‌هایی که بر روی آنها آموزش دیده‌اند خوب عمل میکنند، می‌توانند چیزی به نام «توهم» نیز داشته باشند، یا مثلا با اطمینان آنچه را که فکر می‌کنند بهترین پاسخ به سؤالات است، بسازند. این توهمات (یا اگر بخواهیم کاملاً صادق باشیم، چرندیات) به این معنی است که سیستم‌ها می‌توانند اشتباهات واقعی داشته باشند یا پاسخ‌های بی‌معنی بدهند. حتی بحث‌هایی وجود دارد که میگوید آیا هرگز میتوان توهمات هوش مصنوعی را اصلاح کرد یا خیر.

سوگیری یا «Bias»

توهمات، تنها مشکلاتی نیستند که در برخورد با هوش مصنوعی پیش آمده‌اند، زیرا هوش مصنوعی‌ها، در نهایت، توسط انسان‌ها برنامه‌ریزی شده‌اند. در نتیجه، بسته به داده‌های آموزشی خود، ابزارهای هوش مصنوعی می‌توانند سوگیری‌هایی را نشان دهند. به عنوان مثال، تحقیقات سال ۲۰۱۸ توسط جوی بولامواینی، دانشمند کامپیوتر در آزمایشگاه رسانه «MIT»، و تیمنیت گبرو، بنیانگذار و مدیر اجرایی موسسه تحقیقات هوش مصنوعی توزیع شده «DAIR»، مقاله‌ای را منتشر کردند که نشان می‌داد نرم‌افزار تشخیص چهره در تلاش برای شناسایی جنسیت زنان با پوست تیره‌تر، نرخ خطای بالاتری داشته است.

مدل ها در هوش مصنوعی

مدل هوش مصنوعی یا «AI model»

مدل‌های هوش مصنوعی بر روی داده‌ها آموزش می‌بینند تا بتوانند وظایف را انجام دهند یا به طور مستقل تصمیم‌گیری کنند.

مدل‌های زبانی بزرگ یا «LLMs» «Large Language Models»

نوعی از مدل هوش مصنوعی که می‌تواند متن زبان طبیعی را پردازش و تولید کند. «Claude» از شرکت «Anthropic»، که طبق گفته شرکت، «یک دستیار مفید، صادق و بی‌ضرر با لحنی گفتگو محور» است، نمونه‌ای از یک «LLM» است.

مدل‌های انتشار یا «Diffusion models»

مدل‌های هوش مصنوعی که می‌توانند برای مواردی مانند تولید تصاویر از دستورات متنی استفاده شوند. آنها با افزودن نویز به یک تصویر و سپس معکوس کردن فرآیند آموزش می‌بینند. همچنین مدل‌های انتشاری وجود دارند که با صدا و ویدیو کار می‌کنند.

مدل‌های بنیادی یا «Foundation models»

این مدل‌های هوش مصنوعی مولد بر روی حجم عظیمی از داده‌ها آموزش دیده‌اند و در نتیجه، می‌توانند پایه‌ای برای طیف گسترده‌ای از کاربردها بدون آموزش خاص برای آن وظایف باشند. (این اصطلاح توسط محققان استنفورد در سال ۲۰۲۱ ابداع شد.) «GPT» از شرکت «OpenAI»، هوش مصنوعی «Gemini» از گوگل، «Llama» از متا و «Claude» از «Anthropic» همگی نمونه‌هایی از مدل‌های بنیادی هستند. بسیاری از شرکت‌ها مدل‌های هوش مصنوعی خود را به عنوان چندوجهی یا «multimodal» بازاریابی می‌کنند، به این معنی که می‌توانند انواع مختلفی از داده‌ها مانند متن، تصاویر و ویدیو را پردازش کنند.

مدل‌های پیشرو یا «Frontier models»

علاوه بر مدل‌های پایه، شرکت‌های هوش مصنوعی در حال کار بر روی آنچه که آنها «مدل‌های پیشرو» می‌نامند هستند، که در واقع فقط یک اصطلاح بازاریابی برای مدل‌های آیندهٔ آنهاست. به طور نظری، این مدل‌ها می‌توانند به مراتب قدرتمندتر از مدل‌های هوش مصنوعی موجود باشند، اگرچه نگرانی‌هایی نیز وجود دارد که آنها می‌توانند خطرات قابل توجهی را به همراه داشته باشند.

اما مدل‌های هوش مصنوعی چگونه همه این اطلاعات را به دست می‌آورند؟

خب، آنها آموزش می‌بینند. آموزش فرآیندی است که طی آن مدل‌های هوش مصنوعی یاد می‌گیرند داده‌ها را به روش‌های خاصی درک کنند. این کار با تحلیل مجموعه ی داده‌ها انجام می‌شود تا بتوانند پیش‌بینی کنند و الگوها را تشخیص دهند. به عنوان مثال، مدل‌های زبانی بزرگ با خواندن حجم عظیمی از متن آموزش دیده‌اند. این بدان معناست که وقتی ابزارهای هوش مصنوعی مانند «ChatGPT» به پرسش‌های شما پاسخ می‌دهند، می‌توانند آنچه را که می‌گویید درک کنند و پاسخ‌هایی تولید کنند که شبیه زبان انسان به نظر می‌رسند و به موضوع پرسش شما می‌پردازند.

آموزش اغلب نیازمند منابع و قدرت محاسباتی قابل توجهی است و بسیاری از شرکت‌ها برای کمک به این آموزش به «GPU»های قدرتمند متکی هستند. مدل‌های هوش مصنوعی می‌توانند با انواع مختلفی از داده‌ها، معمولاً در مقادیر عظیم، مانند متن، تصاویر، موسیقی و ویدیو تغذیه شوند. این داده‌ها  به طور منطقی به عنوان داده‌های آموزشی شناخته می‌شوند.

پارامترها، به طور خلاصه، متغیرهایی هستند که یک مدل هوش مصنوعی به عنوان بخشی از آموزش خود یاد می‌گیرد. بهترین توصیفی که از معنای واقعی آن پیدا می شود از هلن تونر، مدیر استراتژی و کمک‌های تحقیقاتی بنیادی در مرکز امنیت و فناوری‌های نوظهور جورج‌تاون و عضو سابق هیئت مدیره «OpenAI» است:

پارامترها اعدادی درون یک مدل هوش مصنوعی هستند که تعیین می‌کنند چگونه یک ورودی (مثلاً، بخشی از متن راهنما) به یک خروجی (مثلاً، کلمه بعدی پس از راهنما) تبدیل می‌شود. فرآیند «آموزش» یک مدل هوش مصنوعی شامل استفاده از تکنیک‌های بهینه‌سازی ریاضی برای تنظیم مکرر مقادیر پارامترهای مدل است تا زمانی که مدل در تبدیل ورودی‌ها به خروجی‌ها بسیار خوب عمل کند.

به عبارت دیگر، پارامترهای یک مدل هوش مصنوعی به تعیین پاسخ‌هایی که آن مدل به شما ارائه خواهد داد، کمک می‌کند. شرکت‌ها گاهی اوقات به تعداد پارامترهای یک مدل به عنوان راهی برای نشان دادن پیچیدگی آن مدل افتخار می‌کنند.

برخی اصطلاحات مهم

پردازش زبان طبیعی «Natural Language Processing – NLP»

توانایی ماشین‌ها برای درک زبان انسان به لطف یادگیری ماشینی. «ChatGPT» از «OpenAI» یک مثال ساده است که می‌تواند پرسش‌های متنی شما را درک کند و در پاسخ، متن تولید کند. ابزار قدرتمند دیگری که با «NLP» امکان پذیر است، فناوری تشخیص گفتار «Whisper» از «OpenAI» است که گفته می‌شود شرکت از آن برای رونویسی صوتی از روی بیش از یک میلیون ساعت ویدیوی «YouTube» برای کمک به آموزش «GPT-4» استفاده کرده است.

استنباط «Inference»

زمانی رخ میدهد که یک برنامه تولیدکننده هوش مصنوعی چیزی را واقعاً تولید می‌کند، مانند «ChatGPT» که به درخواستی درباره نحوه تهیه شیرینی شکلاتی با اشتراک‌گذاری یک دستور پخت پاسخ می‌دهد. استنباط وظیفه‌ای است که کامپیوتر شما هنگام اجرای دستورات هوش مصنوعی محلی انجام می‌دهد.

توکن‌ها «Tokens»

 توکن‌ها به تکه‌های متن، مانند کلمات، بخش‌هایی از کلمات یا حتی کاراکترهای منفرد اشاره دارند. به عنوان مثال، مدل‌های «LLM» متن را به توکن‌ها تقسیم می‌کنند تا بتوانند آنها را تحلیل کنند، تعیین کنند که توکن‌ها چگونه با یکدیگر ارتباط دارند و پاسخ‌ها را تولید کنند. هر چه یک مدل بتواند توکن‌های بیشتری را در یک زمان پردازش کند، نتایج می‌توانند پیچیده‌تر باشند.

شبکه عصبی «Neural network»

 یک شبکه عصبی، معماری کامپیوتری است که به کامپیوترها کمک می‌کند داده‌ها را با استفاده از گره‌ها پردازش کنند، که می‌توان آنها را تا حدودی با نورون‌های مغز انسان مقایسه کرد. شبکه‌های عصبی، برای سیستم‌های هوش مصنوعی مولد محبوب، بسیار مهم هستند زیرا می‌توانند یاد بگیرند الگوهای پیچیده را بدون برنامه‌نویسی صریح درک کنند. به عنوان مثال، آموزش روی داده‌های پزشکی برای توانایی تشخیص بیماری‌ها.

ترانسفورمر «transformer»

یک ترانسفورمر نوعی معماری شبکه عصبی است که از مکانیسم «توجه» برای پردازش چگونگی ارتباط بخش‌های یک توالی با یکدیگر استفاده می‌کند. این توالی ورودی را در نظر بگیرید: «رنگ آسمان چیست؟» مدل ترانسفورمر از یک نمایش ریاضی داخلی استفاده می‌کند که ارتباط و رابطه بین کلمات، رنگ، آسمان و آبی را شناسایی می‌کند. و از آن دانش برای تولید خروجی استفاده می‌کند تا نتیجه بشود «آسمان آبی است».

ترانسفورمرها نه تنها بسیار قدرتمند هستند، بلکه می‌توانند سریع‌تر از سایر انواع شبکه‌های عصبی آموزش ببینند. از زمانی که کارمندان سابق گوگل اولین مقاله درباره ترانسفورمرها را در سال ۲۰۱۷ منتشر کردند، آنها دلیل بزرگی شده‌اند که چرا ما اکنون درباره فناوری‌های هوش مصنوعی مولد این همه صحبت می‌کنیم. (T در «ChatGPT» مخفف «transformer» است.) 

بازیابی و تولید «RAG – Retrieval-Augmented Generation»:

این مخفف عبارت «تولید تقویت‌شده با بازیابی» است. هنگامی که یک مدل هوش مصنوعی در حال تولید چیزی است، «RAG» به مدل اجازه می‌دهد زمینه را از فراتر از آنچه آموزش دیده است پیدا کرده و اضافه کند، که می‌تواند دقت آنچه را در نهایت تولید می‌کند بهبود بخشد.

فرض کنید از یک چت‌بات هوش مصنوعی چیزی می‌پرسید که براساس آموزشش، واقعاً پاسخ آن را نمی‌داند. بدون «RAG» ، چت‌بات ممکن است فقط یک پاسخ اشتباه را متوهمانه بیان کند. اما با «RAG» می‌تواند منابع خارجی را بررسی کند. مثلاً، سایت‌های دیگر در اینترنت.

سیستم‌های هوش مصنوعی روی چه چیزی اجرا می‌شوند؟

تراشه «H100» انویدیا

یکی از محبوب‌ترین واحدهای پردازش گرافیکی «GPU» مورد استفاده برای آموزش هوش مصنوعی. شرکت‌ها برای داشتن «H۱۰۰» سر و دست می‌شکنند زیرا به نظر می‌رسد بهترین عملکرد را در مدیریت حجم کاری هوش مصنوعی نسبت به سایر تراشه‌های هوش مصنوعی سطح سرور دارد. با این حال، در حالی که تقاضای فوق‌العاده برای تراشه‌های انویدیا آن را به یکی از ارزشمندترین شرکت‌های جهان تبدیل کرده است، بسیاری از شرکت‌های فناوری دیگر در حال توسعه تراشه‌های هوش مصنوعی خود هستند که می‌تواند سلطه انویدیا بر بازار را کاهش دهد.

واحدهای پردازش عصبی «NPU»

پردازنده‌های اختصاصی در کامپیوترها، تبلت‌ها و گوشی‌های هوشمند که می‌توانند استنباط هوش مصنوعی را روی دستگاه شما انجام دهند. (اپل از اصطلاح “موتور عصبی” استفاده می‌کند.) «NPU»ها می‌توانند در انجام بسیاری از وظایف مبتنی بر هوش مصنوعی روی دستگاه‌های شما (مانند اضافه کردن تاری پس‌زمینه در طول یک تماس ویدیویی) کارآمدتر از یک «CPU» یا «GPU» باشند.

TOPS

این مخفف که برای «تریلیون عملیات در ثانیه» است، اصطلاحی است که فروشندگان فناوری برای تعریف از قابلیت تراشه‌های خود در استنباط هوش مصنوعی استفاده می‌کنند.

نام‌های آشنا در هوش مصنوعی

شرکت‌های زیادی در زمینه توسعه هوش مصنوعی و ابزارهای مبتنی بر آن پیشرو شده‌اند. برخی از آنها غول‌های فناوری جاافتاده هستند، اما برخی دیگر استارتاپ‌های جدیدتر هستند. در اینجا چند نمونه از بازیگران این عرصه را معرفی می‌کنیم:

«OpenAI / ChatGPT»

دلیل اینکه هوش مصنوعی اکنون چنین اهمیتی پیدا کرده، احتمالاً به لطف «ChatGPT» است، چت‌بات هوش مصنوعی که «OpenAI» در اواخر سال ۲۰۲۲ منتشر کرد. محبوبیت انفجاری این سرویس تا حد زیادی بازیگران بزرگ فناوری را غافلگیر کرد و اکنون تقریباً هر شرکت فناوری دیگری تلاش می‌کند تا از توانایی‌های هوش مصنوعی خود تعریف کند.

«Microsoft / Copilot»

مایکروسافت در حال تعبیه «Copilot»، دستیار هوش مصنوعی خود که توسط مدل‌های «GPT» از «OpenAI» قدرت گرفته است. «Copilot» در بخش‌های مختلفی کاربرد دارد. ضمنا مایکروسافت به عنوان غول فناوری سیاتل ۴۹ درصد سهام «OpenAI» را در اختیار دارد.

«Google / Gemini»

گوگل در حال مسابقه برای تقویت محصولات خود با «Gemini» است که هم به دستیار هوش مصنوعی شرکت و هم به انواع مختلف مدل‌های هوش مصنوعی آن اشاره دارد.

«Meta / Llama»

تلاش‌های هوش مصنوعی متا همه حول مدل «Llama» (مدل زبانی بزرگ متا هوش مصنوعی) است که برخلاف مدل‌های سایر شرکت‌های بزرگ فناوری، منبع باز است.

«Apple / Apple Intelligence»

اپل در حال افزودن ویژگی‌های جدید متمرکز بر هوش مصنوعی به محصولات خود تحت عنوان «Apple Intelligence» است. یکی از ویژگی‌های بزرگ جدید، در دسترس بودن «ChatGPT» مستقیماً درون سیری است.

«Anthropic / Claude»

«Anthropic» یک شرکت هوش مصنوعی است که توسط کارمندان سابق «OpenAI» تأسیس شده و مدل‌های هوش مصنوعی «Claude» را می‌سازد. آمازون 4 میلیارد دلار در این شرکت سرمایه‌گذاری کرده، در حالی که گوگل صدها میلیون دلار سرمایه‌گذاری کرده است (با پتانسیل سرمایه‌گذاری 1.5 میلیارد دلار بیشتر). اخیراً «Mike Krieger»، یکی از بنیانگذاران اینستاگرام را به عنوان مدیر ارشد محصول استخدام کرده است.

«xAI / Grok»

این شرکت هوش مصنوعی «Elon Musk» است. اخیراً 6 میلیارد دلار سرمایه جذب کرده است.

«Perplexity»

«Perplexity» یک شرکت هوش مصنوعی دیگر است. این شرکت به خاطر موتور جستجوی مبتنی بر هوش مصنوعی خود شناخته شده که به دلیل شیوه‌های به ظاهر مشکوک استخراج داده مورد بررسی دقیق قرار گرفته است.

«Hugging Face»

پلتفرمی که به عنوان فهرستی برای مدل‌ها و مجموعه داده‌های هوش مصنوعی عمل می‌کند.

واژه‌نامه اصطلاحات هوش مصنوعی

۱. الگوریتم «Algorithm»: مجموعه‌ای از قوانین یا دستورالعمل‌هایی که یک رایانه برای حل یک مسئله دنبال می‌کند.

۲. هوش مصنوعی «Artificial Intelligence AI»: شبیه‌سازی فرآیندهای هوش انسانی توسط ماشین‌ها، به‌ویژه سیستم‌های رایانه‌ای.

۳. هوش مصنوعی عمومی «AGI Artificial General Intelligence»: سیستم هوش مصنوعی قادر به درک، یادگیری و کاربرد دانش در وظایف و حوزه‌های متنوع، با نمایش توانایی‌های شناختی شبیه انسان.

۴. هوش مصنوعی فوق العاده «ASI Artificial Superintelligence»: سیستم هوش مصنوعی که از هوش انسانی در تمام جنبه‌ها فراتر می‌رود و می‌تواند به نتایجی فراتر از درک یا کنترل انسان منجر شود.

۵. شبکه عصبی مصنوعی «ANN Artificial Neural Network»: سیستم‌های محاسباتی الهام گرفته از شبکه‌های عصبی بیولوژیکی که مغز حیوانات را تشکیل می‌دهند.

۶. خودمختار «Autonomous»: توانایی یک ماشین برای عملکرد و انجام وظایف بدون دخالت انسان.

۷. پس‌انتشار «Backpropagation»: روشی مورد استفاده در شبکه‌های عصبی مصنوعی برای محاسبه گرادیان مورد نیاز جهت محاسبه وزن‌های مورد استفاده در شبکه.

۸. کلان داده «Big Data»: مجموعه داده‌های عظیم که می‌توانند به صورت محاسباتی برای کشف الگوها، روندها و ارتباطات تحلیل شوند.

۹. طبقه‌بندی دودویی «Binary Classification»: نوعی از وظیفه طبقه‌بندی که در آن یک نمونه در یکی از دو کلاس طبقه‌بندی می‌شود.

۱۰. جعبه سیاه «Black Box»: مدل یا سیستم هوش مصنوعی که عملکرد داخلی آن مبهم یا به راحتی قابل تفسیر نیست، که درک چگونگی رسیدن آن به تصمیمات یا خروجی‌ها را دشوار می‌سازد.

۱۱. ربات گفتگو «Chatbot»: یک برنامه نرم‌افزاری که برای انجام مکالمه آنلاین از طریق متن یا تبدیل متن به گفتار استفاده می‌شود.

۱۲. خوشه‌بندی «Clustering»: وظیفه تقسیم جمعیت یا نقاط داده به تعدادی گروه به گونه‌ای که نقاط داده در یک گروه شباهت بیشتری به سایر نقاط داده در همان گروه داشته باشند.

۱۳. محاسبات شناختی «Cognitive Computing»: زیرشاخه‌ای از هوش مصنوعی که به دنبال تعامل طبیعی و شبیه انسان با ماشین‌ها است.

۱۴. بینایی ماشین «Computer Vision»: حوزه علمی بین‌رشته‌ای که با چگونگی دستیابی رایانه‌ها به درک سطح بالا از تصاویر یا ویدیوهای دیجیتال سروکار دارد.

۱۵. شبکه عصبی پیچشی «Convolutional Neural Network CNN»: این نوعی از شبکه‌های عصبی عمیق است که عمدتاً برای تحلیل تصاویر استفاده می‌شود.

۱۶. داده‌کاوی «Data Mining»: فرآیند کشف الگوها در مجموعه داده‌های بزرگ با استفاده از روش‌هایی در یادگیری ماشین، آمار و سیستم‌های پایگاه داده.

۱۷. علم داده «Data Science»: حوزه‌ای بین‌رشته‌ای که از روش‌های علمی، فرآیندها، الگوریتم‌ها و سیستم‌ها برای استخراج دانش و بینش از داده‌های ساختاریافته و بدون ساختار استفاده می‌کند.

۱۸. دیپ‌فیک «Deep Fake»: رسانه‌های مصنوعی تولید شده با استفاده از تکنیک‌های هوش مصنوعی، اغلب شامل دستکاری صدا، ویدیو یا تصاویر برای نمایش رویدادها یا سناریوهایی که اتفاق نیفتاده‌اند.

۱۹. یادگیری عمیق «Deep Learning»: زیرمجموعه‌ای از یادگیری ماشین در هوش مصنوعی که دارای شبکه‌هایی با قابلیت یادگیری بدون نظارت از داده‌های بدون ساختار یا بدون برچسب است.

۲۰. کاهش ابعاد «Dimensionality Reduction»: فرآیند کاهش تعداد متغیرهای تصادفی مورد بررسی با به دست آوردن مجموعه‌ای از متغیرهای اصلی.

۲۱. یادگیری جمعی «Ensemble Learning»: مفهومی در یادگیری ماشین که در آن چندین مدل برای حل یک مسئله یکسان آموزش داده می‌شوند و برای دستیابی به نتایج بهتر ترکیب می‌شوند.

۲۲. محاسبات تکاملی «Evolutionary Computation»: خانواده‌ای از الگوریتم‌ها برای بهینه‌سازی جهانی که از تکامل بیولوژیکی الهام گرفته‌اند.

۲۳. هوش مصنوعی قابل توضیح «XAI Explainable Artificial Intelligence»: به سیستم‌ها و مدل‌های هوش مصنوعی اشاره دارد که می‌توانند توضیحات واضح و قابل فهم برای تصمیمات و اقدامات خود ارائه دهند، فرآیند استدلال را برای انسان‌ها شفاف و قابل تفسیر می‌کند.

۲۴. استخراج ویژگی «Feature Extraction»: فرآیند کاهش میزان منابع مورد نیاز برای توصیف مجموعه بزرگی از داده‌ها.

۲۵. منطق فازی «Fuzzy Logic»: روش محاسباتی مبتنی بر درجات صدق به جای منطق بولی معمول راست یا غلط (۱ یا ۰) 

۲۶. شبکه مولد تخاصمی «Generative Adversarial Network GAN»: این نوعی از الگوریتم‌های هوش مصنوعی است که در آن دو شبکه عصبی، مولد و تشخیص‌دهنده، به طور همزمان برای تولید نمونه‌های واقع‌گرایانه آموزش داده می‌شوند.

۲۷. هوش مصنوعی مولد «Generative AI»: سیستم‌های هوش مصنوعی قادر به ایجاد محتوای جدید، مانند تصاویر، متن یا موسیقی، اغلب از طریق تکنیک‌هایی مانند یادگیری عمیق و مدل‌های مولد.

۲۸. الگوریتم ژنتیک «Genetic Algorithm»: یک روش جستجوی اکتشافی که از نظریه تکامل طبیعی چارلز داروین الهام گرفته است.

۲۹. مدل زبانی مولد پیش‌آموخته «GPT Generative Pre-trained Transformer»: نوعی از مدل‌های زبانی بزرگ مبتنی بر معماری ترانسفورمر، پیش‌آموخته بر روی حجم عظیمی از داده‌های متنی و قادر به تولید متن منسجم و مرتبط با زمینه.

۳۰. توهم «Hallucination»: پدیده‌ای که در آن یک مدل هوش مصنوعی خروجی‌های نادرست یا غیرواقعی تولید می‌کند، اغلب به دلیل تعصب‌ها یا محدودیت‌های موجود در داده‌های آموزشی یا الگوریتم.

۳۱. اکتشافی «Heuristic»: تکنیکی طراحی شده برای حل سریع‌تر یک مسئله زمانی.

۳۲. تشخیص تصویر «Image Recognition»: توانایی نرم‌افزار در شناسایی اشیاء، مکان‌ها، افراد، نوشته‌ها و اقدامات در تصاویر.

۳۳. گراف دانش «Knowledge Graph»: پایگاه دانشی که توسط گوگل برای بهبود نتایج موتور جستجوی خود با اطلاعات جمع‌آوری شده از منابع مختلف استفاده می‌شود.

۳۴. مدل زبانی بزرگ «Large Language Model LLM»: مدل هوش مصنوعی آموزش دیده بر روی داده‌های متنی گسترده، مانند «GPT»، قادر به درک و تولید متن شبیه انسان.

۳۵. رگرسیون خطی «Linear Regression»: یک تکنیک پایه تحلیل پیش‌بینی، که از داده‌های تاریخی برای پیش‌بینی یک متغیر خروجی استفاده می‌کند.

۳۶. یادگیری ماشین «Machine Learning ML»: نوعی از هوش مصنوعی که به برنامه‌های نرم‌افزاری اجازه می‌دهد بدون برنامه‌ریزی صریح، در پیش‌بینی نتایج دقیق‌تر شوند.

۳۷. پرسپترون چندلایه «Multilayer Perceptron MLP»: شبکه عصبی مصنوعی که با چندین لایه از نورون‌های متصل به هم مشخص می‌شود و معمولاً در وظایف یادگیری با نظارت مانند طبقه‌بندی و رگرسیون استفاده می‌شود.

۳۸. پردازش زبان طبیعی «Natural Language Processing NLP»: توانایی یک برنامه رایانه‌ای در درک زبان انسانی به همان صورتی که صحبت می‌شود.

۳۹. شبکه عصبی «Neural Network»: مجموعه‌ای از الگوریتم‌ها که تلاش می‌کنند روابط زیربنایی در یک مجموعه داده را از طریق فرآیندی که شبیه‌سازی عملکرد مغز انسان است، شناسایی کنند.

۴۰. تشخیص داده‌های پرت «Outlier Detection»: فرآیند شناسایی موارد، رویدادها یا مشاهدات نادر که با تفاوت قابل توجه از اکثریت داده‌ها، شک برانگیز می‌شوند.

۴۱. تشخیص الگو «Pattern Recognition»: شناسایی خودکار الگوها و قاعده‌مندی‌ها در داده‌ها.

۴۲. تحلیل پیش‌بینی «Predictive Analytics»: استفاده از داده‌ها، الگوریتم‌های آماری و تکنیک‌های یادگیری ماشین برای شناسایی احتمال نتایج آینده بر اساس داده‌های تاریخی.

۴۳. محاسبات کوانتومی «Quantum Computing»: حوزه‌ای از محاسبات، متمرکز بر توسعه فناوری‌های مبتنی بر رایانه که بر اساس اصول نظریه کوانتوم هستند.

۴۴. بازیابی و تولید «RAG Retrieve and Generate»: یک معماری که رویکردهای مبتنی بر بازیابی و تولید را ترکیب می‌کند و به سیستم‌های هوش مصنوعی امکان می‌دهد متن را بر اساس دانش یا زمینه بازیابی شده تولید کنند.

۴۵. جنگل تصادفی «Random Forest»: یک روش یادگیری ماشین همه‌کاره که قادر به انجام وظایف رگرسیون و طبقه‌بندی است.

۴۶. شبکه عصبی بازگشتی «Recurrent Neural Network RNN»: نوعی از شبکه‌های عصبی که برای پردازش داده‌های توالی مانند متن یا سری‌های زمانی استفاده می‌شود.

۴۷. یادگیری تقویتی «Reinforcement Learning»: حوزه‌ای از یادگیری ماشین که در آن یک عامل یاد می‌گیرد با انجام اعمال خاص و مشاهده نتایج، در یک محیط رفتار کند.

۴۸. رباتیک «Robotics»: زمینه‌ای از مهندسی که بر طراحی و ساخت ربات‌ها متمرکز است.

۴۹. تحلیل معنایی «Semantic Analysis»: فرآیند ارتباط دادن ساختارهای نحوی، از سطح عبارات، بندها، جملات و پاراگراف‌ها به سطح کل نوشته، به معانی مستقل از زبان آنها.

۵۰. هوشمند «Sentient»: سیستم هوش مصنوعی که دارای آگاهی، خودآگاهی و تجربیات ذهنی مشابه موجودات آگاه مانند انسان‌ها است.

۵۱. تحلیل احساسات «Sentiment Analysis»: استفاده از پردازش زبان طبیعی برای شناسایی، استخراج و کمی‌سازی اطلاعات ذهنی از منابع.

۵۲. یادگیری با نظارت «Supervised Learning»: نوعی الگوریتم یادگیری ماشین که از یک مجموعه داده شناخته شده (به نام مجموعه داده آموزشی) برای پیش‌بینی استفاده می‌کند.

۵۳. هوش جمعی «Swarm Intelligence»: رفتار جمعی سیستم‌های غیرمتمرکز، خودسازمان‌ده، طبیعی یا مصنوعی.

۵۴. تبدیل متن به گفتار «TTS Text-to-Speech»: فناوری هوش مصنوعی که متن نوشتاری را به زبان گفتاری تبدیل می‌کند.

۵۵. متن‌کاوی «Text Mining»: فرآیند استخراج اطلاعات با کیفیت بالا از متن.

۵۶. تحلیل سری زمانی «Time Series Analysis»: یک تکنیک آماری که با داده‌های سری زمانی یا تحلیل روند سروکار دارد.

۵۷. ترانسفورمرها «Transformers»: نوعی معماری مدل یادگیری عمیق مبتنی بر مکانیسم‌های خودتوجهی که به طور گسترده در وظایف پردازش زبان طبیعی مانند ترجمه و خلاصه‌سازی استفاده می‌شود.

۵۸. یادگیری بدون نظارت «Unsupervised Learning»: نوعی الگوریتم یادگیری ماشین که برای استنباط از مجموعه داده‌های شامل داده‌های ورودی بدون پاسخ‌های برچسب‌گذاری شده استفاده می‌شود.

۵۹. واقعیت مجازی «Virtual Reality VR»: تجربه‌ای شبیه‌سازی شده که می‌تواند مشابه یا کاملاً متفاوت از دنیای واقعی باشد.

۶۰. تشخیص صدا «Voice Recognition»: توانایی یک ماشین یا برنامه برای دریافت و تفسیر یا درک و اجرای دستورات صوتی.

۶۱. وب اسکرپینگ «Web Scraping»: روشی برای استخراج مقادیر زیادی داده از وب‌سایت‌ها که در آن داده‌ها استخراج شده و در یک فایل محلی در کامپیوتر شما یا یک پایگاه داده در قالب جدول ذخیره می‌شوند.

۶۲. جاسازی کلمه «Word Embedding»: نوعی نگاشت که در آن کلمات یا عبارات از واژگان به بردارهای اعداد حقیقی نگاشت می‌شوند. این شامل یک جاسازی ریاضی از فضایی با یک بعد برای هر کلمه به یک فضای برداری پیوسته با ابعاد بسیار کمتر است.

۶۳. ایکس‌جی‌بوست «XGBoost»: یک کتابخانه بهینه‌سازی شده گرادیان بوستینگ توزیع شده که برای کارایی بالا، انعطاف‌پذیری و قابلیت حمل طراحی شده است.

۶۴. یان لکان «Yann LeCun»: دانشمندی که در زمینه‌های یادگیری ماشین، بینایی کامپیوتر، رباتیک متحرک و علوم اعصاب محاسباتی مشارکت داشته است. او را به عنوان پدر هوش مصنوعی یاد میکنند.

۶۵. یادگیری صفر-شات «Zero-shot Learning»: توانایی یک مدل یادگیری ماشین برای استنباط یا طبقه‌بندی صحیح نمونه‌هایی که در طول آموزش با آنها مواجه نشده است.

۶۶. معماری زتا «Zeta Architecture»: یک معماری پردازش داده بلادرنگ، چندمدلی، توزیع شده جهانی در سطح سازمانی.

منبع شماره یک این مقاله و منبع شماره دو را می‌تواند به زبان انگلیسی مطالعه کنید.

اگر به AI علاقه‌مند هستید می‌توانید صفحات «اخبار هوش‌مصنوعی» و «مقالات هوش‌مصنوعی» را دنبال کنید.

Tags: No tags

افکارتان را باما در میان بگذارید

اطلاعات شما پیش ما امن هست، آدرس ایمیل شما منتشر نخواهد شد!