مطالب توسط

OpenAI و GPT3

 OpenAI در مقاله‌ای به نام «مدل‌های زبانی فراگیرانی سریع هستند»، GPT-3 را به عنوان بزرگ‌ترین مدل زبان که تا کنون ساخته شده است معرفی کرد. در این مقاله‌ی ۷۳ صفحه‌ای، نشان می‌دهد که چطور GPT-3 ترند‌های جدید پیشرفت‌های هنرمندانه در مدل‌سازی زبان‌ها را دنبال می‌کند. به طور گسترده، در بنچمارک‌های پردازش زبان طبیعی، GPT-3 به نتایج امیدوار‌کننده و قابل رقابت می‌رسد.

ربات تولید متن چیست؟

GPT-3 افزایش کارایی تولید متن را هدف گیری کرده است. و دنباله‌رو افزایش عظیم در مدل و اندازه اطلاعات است. ربات تولید متن جدیدترین پیشرفت‌های NLP را توصیف می‌کند. پیام اصلی این بیانیه بیش‌تر از این که در مورد کارایی این مدل در بنچمارک‌ها باشد، حل مسائل پیچیده NLP است. یعنی تولید متن قادر است تا وظایفی در NLP که تاکنون با آن‌ها روبه‌رو نشده است را بعد از یک بار دیدن و یا تعداد کمی مثال حل کند. و البته مدل‌های ترنسفورمر، برای دستورات جدید باید با حجم عظیمی از اطلاعات تمرین داده شوند.

در گذشته، OpenAI نسخه دوم GPT را توسعه داد که قادر بود متونی طولانی و منسجم تولید کند. (که تمایز آن با نوشته‌ی انسان‌ها سخت بود). شرکت OpenAI بیان می‌کند که از مدل و ساختار GPT-2 در محصول جدید خود بهره برده‌ است. ولی تولید متن تفاوتی که دارد این است که اندازه شبکه و اطلاعاتی که با آن آموزش داده می‌شود بسیار بزرگ‌تر از نسخه‌ها قبلی خود بوده است. GPT-3 در مقایسه با GPT-2 که ۱.۵ میلیارد مولفه داشته، ۱۷۵ میلیارد مولفه دارد. و برخلاف GPT-2 که بر روی ۴۰ میلیارد گیگابایت متن بوده، تولید متن بر روی ۵۷۰ میلیارد گیگابایت متن تمرین داده شده است. با این حال افزایش این مقیاس، بدعت جدیدی نیست. چیزی که GPT-3 را مهم کرده  یادگیری با گزینه‌های اندک (few-shot learning) است.

فیدبک‌های تولید متن

رسانه‌ها، متخصصان این زمنیه و انجمن‌های تکنولوژی، نظرات متفاوتی پیرامون توانایی‌ها و پتانسل‌های تولید متن و پیاده‌سازی آن در مقیاس‌های بزرگ‌تر دارند. مانند خوش‌بینی به بهره‌وری بیش‌تر انسان‌ها در آینده و ترس از دست‌دادن شغل‌ها و همین‌طور بررسی‌های دقیق توانایی‌ها و محدودیت‌های GPT-3.

فیدبک رسانه‌های در مورد OpenAI چیست؟

پوشش این مسئله‌ توسط رسانه‌ها از زمانی که نسخه‌های دمو GPT-3منتشر شدند افزایش یافت:

  • بازخورد موسسه تکنولوژی MIT درباره GPT-3، همراه با ارائه‌ی منابع مختلفی نشان داد که چگونه می‌تواند متونی شبیه انسان‌ها خلق کند. از تولید کد‌های react گرفته تا سرودن شعر. این موسسه در مورد تولید متن نکته مهمی را اشاره کرده است. «این فناوری می‌تواند نوشته‌های شبیه انسان بسازد اما نمی‌تواند ما را به هوش واقعی نزدیک‌تر کند.»
  • موسسه Verge بر روی پتانسیل‌های تبلغاتی نرم‌افزار‌های GPT-3 تمرکز کرد.
  • در پی بحث‌های پیرامون این موضوع، منابع خبری مانند Forbes و Venturebeat مشکلاتی مانند مدل Bias و Hype را بررسی کردند.
  • اضافه بر ذکر ‌کردن عیوب آن، Wired بیان کرد که GPT-3 می‌تواند نسخه‌ی جدیدتر و خطرناک‌تری از تکنولوژی Deepfake را به ما معرفی کند. ربات تولید متن باعث می‌شود رسانه‌ای دستکاری نشده برای مقایسه با نمونه‌های دستکاری شده‌ در دسترس نباشد. متون مصنوعی معمولاً به راحتی در حجم زیاد می‌توانند منتشر شوند و به راحتی نمی‌توان آن‌ها را شناخت.
  • روزنامه نیویورک‌تایمز نیز مطلبی با تیتر «نسل جدید هوش مصنوعی بسیار جالب و کمی ترسناک است» منتشر کرد. در مورد این‌که GPT-3 جایگزین نویسنده‌ها خواهد شد و این جای نگرانی دارد.
  • در آخر جان ناتن، پروفسور «فراگیری عمومی فناوری» ربات GPT-3 را فقط به عنوان پیشرفتی افزون‌بر پیشینیان این تکنولوژی می‌بیند. نه این که کشف جدید و مهمی باشد. ناتن این هشدار را می‌دهد که اگر این پیشرفت‌ها به خاطر ارائه‌ی هر‌ چه بیش‌تر داده‌ها باشد، هزینه‌های جانبی آن در آینده بسیار هنگفت خواهد شد.

بازخورد متخصصان هوش مصنوعی در مورد تولید متن چیست؟

  • سردبیر بخش تحقیقات هوش مصنوعی NVIDIA و پروفسور علوم ریاضی و حساب در Caltech، انیما آنندکوماد، از OpenAI انتقاد کرد. که چرا به Bias به اندازه کافی توجه نکرده است. با توجه به این که GPT-2 نیز مشکلاتی شبیه به این مدل جدید داشت. به دلیل این که منابع اطلاعاتی مدیریت‌نشده‌ای مانند Reddit در این تکنولوژی استفاده شده و برای نوشتن متن از انسان‌ها تاثیر گرفته است.
  • مدیر هوش‌مصنوعی فیسبوک، نیز نظرات مشابهی داشت. GPT-3 خلاقانه و جالب است ولی برای از جنبه‌های حقوق بشری می‌تواند مضر باشد. وقتی از تولید متن می‌خواهیم با کلماتی مانند یهودیان، سیاه، زنان و هولوکاست توییت بزند، به نتایج زننده‌ای ممکن است دست پیدا کنیم. ما به پیشرفت‌های بیش‌تری در مورد «هوش مصنوعی مسئولیت‌پذیر یا ResponsiveAI» قبل از این که آن را در دسترس عموم قرار بدهیم نیاز داریم.
  • دلیپ رائو، محقق یادگیری ماشین، در مورد همه‌ی این مباحث پاسخ داده است. او می گوید GPT-3 و نسخه‌های یادگیری با داده‌های کم یا few-shot learning از مرحله‌ی تحقیقاتی به مرحله‌ی عملیاتی و کاربردی رسیده اند. ولی هرگونه جهش تکنولوژی از حجم زیادی صحبت‌ها و بحث‌های درون شبکه‌های اجتماعی می‌آید. که می‌توانند تفکر ما در مورد توانایی‌های واقعی این فناوری‌ها را مخدوش کنند.
  • جولیان توگلیوس، یک پروفسور هوش مصنوعی، نیز در مورد این موضوع مطلبی جالب ارائه کرده است. «الگوریتم‌ها برای جست‌وجو، بهینه‌سازی و یادگیری روزی دغدغه‌هایی برای ما داشتند. مثلا چگونه بشریت در حال سقوط و جایگزینی آن با ماشین‌ها است! اما دیگر امروزه این الگوریتم‌ها نرم‌افزار‌ها و محصولات ما را مدیریت می‌کنند. همچنین بهره‌وری آن‌ها را افزایش می‌دهند. بازی‌ها و اپلیکشین‌های گوشی و ماشین‌ها نیز از این ‌مسئله مستثنی نیستند. الان که این تکنولوژی به طرز قابل اعتمادی کار می‌کند دیگر نمی‌توان اسمش را هوش مصنوعی گذاشت. بلکه این مسائل کمی خسته‌کننده شده‌اند!»

بازخورد صنایع لبه تکنولوژی و علم دنیا در مورد GPT-3 چیست؟

مفسران از صنایع تکنولوژی برخورد‌های متفاوتی داشتند و تعدادی نیز مفاهیم برنامه‌نویسی هوش مصنوعی را توضیح دادند.

  • مکس ولف، دانشمند داده‌ در بازفید، اهمیت این که انتظارات ما در سنجش GPT-3 چه تاثیری دارد را گوشزد کرد. چون معمولاً مسائلی که به عنوان هوش گزارش می‌شوند از بهترین نمونه‌ها انتخاب می‌شوند. با اینکه، متن به دست آمده توسط GPT-3 از مدل‌های زبانی دیگر بهترند، اما مشکلاتی در تولید متون اختصاصی دارد. زیرا GPT-3 مدلی بسیار کند، بزرگ و نیازمند یادگیری با داده‌های زیاد است. از اینرو، تنظیم آن برای کارکردن با اطلاعات اختصاصی می‌تواند ممکن نباشد.
  • کوین لکر، از مهندسان گوگل اعلام کرده است که GPT-3 می‌تواند پاسخ‌های دقیقی به بسیاری از سوالاتی که در مورد واقعیت‌های جهان از آن پرسیده می‌شود بدهد. این فناوری می‌تواند آن‌ها را به راحتی از طریق مجموعه نوشته‌های تمرینی‌اش به دست آورد. بلاگری به نام گوون برانون نیز GPT-3 را با بسیاری از نمونه‌کارها و موضوعات سنجیده است.
  • آقای برت گلدستین، مدیرسابق بخش محصولات گوگل، در پاسخ به این‌که GPT-3 چگونه می‌تواند بر اساس مشخصات داده شده به آن توسط انسان، کد نویسی کند؟ پاسخ جالبی داده است. او می‌گوید: «بسیاری از شرکت‌ها تمایل به استفاده از GPT-3 را خواهند داشت. آنها مهندسان گران‌قیمت یادگیری ماشین را استخدام خواهند کرد تا از مدل‌های GPT-3 استفاده کنند.»

نظر مدیرعامل OpenAI چیست؟

مدیر‌عامل OpenAI، به حواشی این موضوعات این گونه پاسخ داده است. هرچند ما با این تکنولوژی به پیشرفت بسیاری زیادی در زمینه هوش مصنوعی رسیده‌ایم. ولی هنوز زمینه‌های زیادی در همین مبحث هوش‌مصنوعی وجود دارد که انسان هنوز به آن‌ها دست نیافته است.

هیاهوی پیرامون GPT-3 بسیار زیاد بوده و این واقعا جالب است. ولی نقطه‌ ضعف‌هایی دارد و گاهی هم باعث اشتباهاتی احمقانه می‌شود. هوش مصنوعی قرار است در آینده دنیا را تغییر دهد ولی GPT-3 فقط یک سرچشمه‌ی آن است. چیز‌های بسیاری برای یافتن هنوز باقیست.

به طور خلاصه، بسیاری از متخصصان مثال‌های جالبی در مورد مقایسه‌ی زبان طبیعی با GPT-3 زدند. رسانه‌ها و مجامع تکنولوژی هر دو پیشرفت OpenAI را تبریک گفته و در عین حال هشدارهایی هم داده اند. این هشدارها ممکن است این باعث آشفتگی‌های تکنولوژی عظیمی در آینده شود. به‌هرحال، مدیرعامل OpenAI با نظرات محققان و منتقدان این تکنولوژی همراهی می‌کند. او می‌داند که GPT-3 پیشرفت و جهش عظیمی را در زمینه هوش مصنوعی نشان‌ می‌دهد، ولی نمی‌تواند واقعا زبان را درک کند.

محدودیت‌های OpenAI چیست؟

قابلیت‌های فراوان GPT-3 و توانایی انجام کار‌های مختلف و به خطر انداختن شغل‌های مرتبط، نشان‌‌دهنده‌ی نگرانی‌هایی پیرامون این مسئله‌ است. با این که GPT-3 پیشرفت‌های مهمی در زمنیه‌ی مدل‌های زبانی از خود نشان می‌دهد ولی هوش واقعی ندارد و نمی‌تواند کاملاً جای کارکنان را بگیرد.

گذشته از همه‌ی این‌ها، مدل GPT-3 شبیه همه‌ی‌ مدل‌های پیشین خود است و فقط پیشرفته‌تر شده است. با این که بزرگ‌تر کردن مقیاس تمرینی، نتایج عملکردی بسیار عالی داشت ولی GPT-3 محدودیت‌هایی که در ادامه ذکر خواهیم کرد را با خود دارد.

  • نداشتن حافظه‌ی طولانی مدت (به گونه‌ای که الان GPT-3 کار می‌کند، نمی‌تواند چیزی را شبیه انسان‌ها بعد از فعل و انفعالات موفق یاد بگیرد.)
  • محدودیت حجم ورودی (در مورد GPT-3، درخواست‌های بیش‌تر از چند جمله نمی‌توانند اجرا شوند.)
  • فقط می‌تواند با متن کار کنند (پس نمی‌تواند با تصویر، صدا یا هر چیز دیگری که انسان به راحتی به آن‌ها دسترسی دارد کار کند.)
  • نبود اعتماد (GPT-3 در زمینه‌هایی مبهم است و برای همین هیچ گونه گارانتی برای این که متن اشتباه یا مشکل‌داری در پاسخ به بعضی سوالات تولید کند وجود ندارد.)
  • ناتوان در تفسیر (وقتی GPT-3 با روش‌هایی تعجب‌آور کار می‌کند، ممکن است که تصحیح یا جلوگیری از چنین شرایطی را سخت یا حتی غیر ممکن بسازد.)
  • استنتاج آهسته (مدل‌های فعلی GPT-3 به علت مقیاس بالای تصمیم‌گیری‌های صورت گرفته، گران و نامناسب هستند.)

تاثیر تولید متن بر مشاغل آینده چیست؟

با این که یک فناوری‌های شبیه GPT-3 می‌تواند طبیعت همه‌ی شغل‌ها را در آینده تغییر دهد ولی لزوما به این معنی نیست که آن شغل‌ها ناپدید خوا‌هند شد. همان‌طور که پذیرفتن تکنولوژی‌های جدید معمولاً یک فرایند طولانی مدت است، بسیاری از فناوری‌های هوش مصنوعی به‌جای جایگزینی شغل انسان، به انسان‌ها یاری رسانی خواهند کرد. البته مورد دوم بسیار محتمل‌تر خواهد بود زیرا مدل‌های هوش مصنوعی نیاز به نظارت انسان‌ها دارند تا از نواقص احتمالی در امان باشند. با نگاه کردن به مثال توسعه‌ی وب، کسی که در مورد نکات تکنیکی اطلاعات و تخصص دارد برای کد نویسی و تصحیح کردن کد GPT-3 باید وارد عمل شود.

منبع – احمدرضا کرمی – فنولوژی

استخدام معمار پلتفرم داده و برنامه نويس یادگیری ماشین و یادگیری عمیق

استخدام معمار پلتفرم داده و برنامه نویس یادگیری کاشین و یادگیری عمیق در شرکت مهندسی مشاور عصر فناوری دانش 

*امکان همکاری تمام وقت میسر است. 

*امکان همکاری سرباز همکار (امریه برای شرکت های دانش بنیان) نيز میسر است. 

ارسال رزومه : AI-DS@KTE.IR

معمار پلتفرم داده

جعل عمیق Deep Fake

دیپ فیک (Deepfake) یا جعل عمیق نوعی فناوری بر پایه هوش مصنوعی است که برای تولید یا تغییر محتوای ویدیویی استفاده میشود تا ویدیو نمایانگر چیزی باشد که، در واقع، اصلاً اتفاق نیفتاده است.

نام گذاری دیپ فیک به پیروی از نام کاربری یک کاربر Reddit به نام deepfakes انجام شده است که در دسامبر 2017 از فناوری یادگیری عمیق جهت جایگذاری چهره سلبریتی ها به جای چهره افراد در فیلم های مستهجن استفاده کرده بود. این عبارت، که هم به فناوری مورد استفاده و هم ویدیوهای ساخته شده توسط آن اشاره دارد، ترکیبی از یادگیری عمیق (deep learning) و جعل (fake) است.

ویدیو جعل عمیق توسط دو سیستم هوش مصنوعی رقیب ایجاد میشود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی میسازد و از تفکیک کننده میپرسد که آیا ویدیو واقعی است یا نه. هربار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی میدهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد.

تولید کننده و تفکیک کننده باهم، یک شبکه تخاصمی تولیدی (Generative Adversarial Network) یا GAN تشکیل میدهند. اولین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولید کننده است. هنگامی که تولید کننده شروع به تولید خروجی هایی قابل قبول کند، کلیپ های ویدیویی را می توان وارد تفکیک کننده نمود.

با بهبود تولید کننده در تولید کلیپ های ویدیویی، تفکیک کننده نیز در شناسایی آنها بهتر میشود. برعکس، با بهبود تفکیک کننده در شناسایی ویدیوهای جعلی، تولید کننده در ساخت آنها بهتر میشود.

تا همین اواخر، تغییر محتوای ویدیویی به طرزی محسوس، بسیار سخت تر بود. با این حال، چون جعل عمیق توسط هوش مصنوعی ساخته میشود، مهارت چشمگیر مورد نیاز جهت تولید ویدیویی واقع گرا به روش های دیگر را نیاز ندارد. متاسفانه، این بدان معناست که هرکسی میتواند یک ویدیوی جعلی عمیق برای ترویج موضوع مورد نظر خود تولید کند. یکی از خطرات مرتبط این است که افراد ممکن است این ویدیوها را باور کنند، خطر دیگر این است که ممکن است دیگر به اعتبار هیچ ویدویی نتوان اعتماد کرد.

عرفان ابراهیم اصفهانی – مدياسافت

بینایی ماشین، بینایی کامپیوتر و پردازش تصویر

در یک نگاه اولیه، بینایی ماشین یاMachine Vision ، فناوریها و روش های مورد استفاده جهت ارائه تحلیل مبتنی بر تصویر، در کاربردهای معمولاً صنعتی از قبیل بازرسی، تحلیل خودکار، کنترل فرآیند و هدایت رباتها است.

تفاوت بینایی ماشین و بینایی کامپیوتر

بینایی ماشین به فناوری ها، محصولات نرم افزاری و سخت افزاری، سیستم های مجتمع، عملیات، روش ها و مهارت های زیادی اشاره میکند. بینایی ماشین به عنوان یک زمینه مهندسی سامانه ها، میتواند متمایز از بینایی کامپیوتر که شکلی از علوم کامپیوتر است در نظر گرفته شود. این رشته سعی در یکپارچه سازی فناوری های موجود به روش های جدید و استفاده از آنها در حل مسائل جهان واقعی دارد. این عبارت برای عملکردهای فوق در محیط های اوتوماسیون صنعتی رایج تر است اما برای توصیف همین عملکردها در چارچوب های دیگر مثل امنیت و هدایت وسیله نقلیه نیز استفاده میشود.

فرآیند کلی بینایی ماشین شامل طرح ریزی جزیی ملزومات و پروژه، و سپس ساخت راه حل است. در زمان اجرا (Run-time)، این فرآیند با تصویر برداری آغاز میشود و با تحلیل خودکار تصویر و استخراج اطلاعات لازم ادامه پیدا میکند.

تعریف بینایی ماشین یا Machine vision

تعاریف مختلفی از “بینایی ماشین” در دسترس هستند اما همگی شامل فناوری و روش های مصرفی جهت استخراج خودکار اطلاعات از تصویر هستند. (برخلاف پردازش تصویر که خروجی آن یک تصویر دیگر است.) اطلاعات استخراج شده میتواند یک سیگنال ساده بخش خوب/بخش بد، یا مجموعه ای پیچیده تر از داده ها مثل هویت، موقعیت و جهت گیری هر شیء در تصویر باشد. تعریف وسیع تر همچنین شامل محصولات و کاربردهایی است که اغلب با پردازش تصویر مرتبط میشوند. اولویت های مصرفی برای بینایی ماشین، بارزسی خودکار و هدایت صنعتی فرآیند/رباتهاست.

پردازش تصویر

عموماً پس از ایجاد تصویر، آن را پردازش میکنند. همچنین از چند مرحله پردازش در توالی هایی که به نتیجه مطلوب میرسند، بهره گرفته میشود. یک توالی عادی ممکن است با ابزاری مثل فیلترها شروع شود که تصویر را اصلاح میکنند، در ادامه استخراج اشیاء، سپس استخراج داده از این اشیاء (مثلاً اندازه گیری یا خواندن کدها)، و در نهایت انتقال این داده ها یا مقایسه آنها با مقادیر هدف جهت ارائه و اعلام نتایج “عبور/عدم عبور”.

عرفان ابراهیم اصفهانی – مدیاسافت

زیرساخت اینترنت اشیاء در ۵۰ هزار نقطه تهران به‌صورت پایلوت اجرا می‌شود.

رایتل با امضای تفاهم‌نامه با شرکت توزیع برق تهران در مسیر توسعه‌ی زیرساخت ارتباطی کنتور‌های هوشمند و اینترنت اشیاء قدم برمی‌دارد.

شرکت خدمات ارتباطی رایتل با امضای تفاهم‌نامه‌ی همکاری با شرکت توزیع برق تهران بزرگ قصد دارد در مسیر توسعه‌ی زیرساخت ارتباطی کنتور‌های هوشمند و اینترنت اشیاء در پایتخت قدم بردارد. تفاهم‌نامه‌ی مذکور صبح امروز در نمایشگاه اینترنت اشیاء میان حسین صبوری، مدیرعامل توزیع برق تهران بزرگ و یاسر رضاخواه، مدیرعامل شرکت خدمات ارتباطی رایتل، مبادله شد. در این تفاهم‌نامه، آمده است که حداکثر ۵۰ هزار نقطه در مناطق زیر پوشش توزیع تهران بزرگ مبتنی‌بر فناوری اینترنت اشیاء (IoT) به‌صورت پایلوت اجرا خواهد شد.

تفاهم‌نامه‌ی مذکور با محور تأمین شبکه‌ی ارتباطی موردنیاز ارائه‌ی خدمات کنترل مستقیم بار (DLC) و هوشمندسازی کنتور‌های برق و با هدف قرائت کنتور‌های مشترکان از راه دور توزیع تهران بزرگ بر بستر شبکه‌ی پیشرفته‌ی مخابراتی رایتل مبتنی‌بر روش‌های مختلف ارتباطی (ازقبیل روش‌های مبتنی‌بر سیم‌کارت یا سایر روش‌های ارتباطی) و بر بستر فناوری‌های مختلف ارتباطی مانند 3G/4G NB-IOT ،LTE-M ،5G ،LoRa به امضای طرفین رسید. البته تبادل این تفاهم‌نامه به‌معنای ایجاد انحصار برای شرکت رایتل نیست و شرکت توزیع نیرو تهران همچنان به دریافت خدمات از سایر اپراتو‌های مخابراتی مجاز خواهد بود.

فاطمه مختاری – زومیت

انعقاد قرارداد هوش تجاری با شرکت برق منطقه ای خراسان

1399/12/26

با عقد قرارداد هوش تجاری فرابر با شرکت برق منطقه ای خراسان امکان اتصال به سامانه های الکترونیکی این شرکت و انجام فرآیندهای ETL؛ پاکسازی داده ها و ایجاد انبار داده های موضوعی میسر میگردد. امید است تا با اين قرارداد، امکان بازآفرينی سازمان داده محور در اين شرکت نهادینه گردد.  

تحليل گرافهای حمله وزن دار با استفاده از الگوريتمهای ژنتيك

هر گراف حمله مجموعه ای از سناریوهای نفوذ به یک شبکه کامپیوتری را نمایش می دهد. در این مقاله، از گراف های حمله وزن دار برای تحلیل آسیب پذیری شبکه های کامپیوتری استفاده می شود. در این گراف های حمله به هر سوء استفاده توسط تحلیل گر وزنی نسبت داده می شود. وزن نسبت داده شده به هر سوء استفاده متناسب با هزینه لازم برای جلوگیری از آن سوء استفاده است. هدف از تحلیل گراف های حمله وزن دار یافتن یک مجموعه بحرانی از سوء استفاده ها است که مجموع وزن های آنها کمترین مقدار ممکن باشد و با جلوگیری از آنها هیچ سناریوی نفوذی امکان پذیر نباشد. در این مقاله، یک الگوریتم حریصانه، یک الگوریتم ژنتیک با عملگر جهش حریصانه و یک الگوریتم ژنتیک با تابع برازندگی پویا برای تحلیل گراف های حمله وزن دار پیشنهاد می شود. از الگوریتم های پیشنهادی برای تحلیل گراف حمله وزن دار یک شبکه مثالی و چندین گراف حمله وزن دار مقیاس بزرگ استفاده می شود. نتایج بدست آمده از آزمایش ها، عملکرد بهتر الگوریتم های ژنتیک پیشنهادی را نسبت به الگوریتم حریصانه نشان می دهند به گونه ای که الگوریتم های ژنتیک فوق قادر هستند مجموعه های بحرانی از سوء استفاده ها با مجموع وزن های کمتر را پیدا کنند. همچنین، از الگوریتم ژنتیک با تابع برازندگی پویا برای تحلیل چندین گراف حمله ساده مقیاس بزرگ استفاده می شود و عملکرد آن با یک الگوریتم تقریبی برای تحلیل گراف های حمله ساده مقایسه می شود.

درباره GPT-3

چند وقتی است که توجه دنیای تکنولوژی به رباتی تازه توسعه‌یافته به نام GPT-3 جلب شده که به زعم بسیاری قرار است دنیای هوش مصنوعی را دگرگون کند. اگر بخواهیم خیلی ساده توضیح دهیم: GPT-3 رباتی است که مهارت فراوان در ایجاد محتوا در ساختار رایج زبان انسانی و زبان ماشینی دارد و بسیار پیشرفته‌تر از پیشینیان خود ظاهر می‌شود.

 

به گزارش جام جم آنلاین به نقل از دیجیاتو،شرکت OpenAI مسئولیت ساخت GPT-3 را برعهده داشته، شرکتی تحقیقاتی که ایلان ماسک یکی از موسسین آن بوده و به عنوان یکی ستون‌های اصلی پیشرفت هوش مصنوعی در سال‌های پیش رو تلقی می‌شود.

اما به همان اندازه که مردم برای این ربات هیجان‌زده‌اند، اطلاعات اندکی نیز راجع به کارهایی که می‌تواند (و نمی‌تواند) انجام دهد نیز دارند. بنابراین در این مقاله با زبان بسیار ساده مسائل پیرامون GPT-3 را تشریح خواهیم کرد تا درک بهتری از ماهیت آن داشته باشید. علاوه بر این به برخی از مشکلات بالقوه این هوش مصنوعی خواهیم پرداخت و اینکه چرا برخی عقیده دارند به خاطر هیجان بیش از حد، برخی از برجسته‌ترین توانایی‌های ربات OpenAI نادیده گرفته شده است.
GPT-3 چیست؟

کار را با ساده‌ترین مسائل شروع می‌کنیم. GPT-3 مخفف «Generative Pre-trained Transformer 3» است و در واقع ورژن سوم از این ابزار است که هنوز در دسترس عموم قرار نگرفته.

اگر بخواهیم خلاصه بگوییم، نام‌گذاری GPT-3 بدان معناست که می‌تواند با استفاده از الگوریتم‌هایی که از پیش تعلیم دیده‌اند، متن تولید کند. این الگوریتم‌ها از قبل اطلاعات لازم برای انجام وظایف خود را دریافت کرده‌اند. دقیق‌تر می‌گوییم، این ربات با ۵۷۰ گیگابایت اطلاعات جمع‌آوری شده از سطح اینترنت (چه در دیتابیس‌های عمومی و چه خصوصی) تعلیم دیده و OpenAI هم برخی دیگر از متون (مانند مقالات ویکیپدیا) را دستچین کرده و در اختیار ربات قرار داده.

اگر از این ربات یک سوال بپرسید، می‌توانید منتظر پاسخی بسیار کارآمد باشید. اگر هم از آن بخواهید که یک خلاصه از مقاله یا یک شعر بنویسد، دقیقا همین‌ کارها را برایتان خواهد کرد. اگر فنی‌تر با موضوع برخورد کنیم، این ربات به عنوان بزرگ‌ترین شبکه عصبی مصنوعی جهان شناخته می‌شود و جلوتر به این موضوع هم خواهیم پرداخت.
GPT-3 قادر به انجام چه کاریست؟

GPT-3 قادر به هرچیزی درون ساختار زبان است. بنابراین می‌تواند به سوالات پاسخ دهد، مقاله بنویسد، متون طولانی را خلاصه کند، زبان‌ها را ترجمه کند، نت‌ بردارد و حتی کد کامپیوتری بنویسد.

در واقع در یک دموی آنلاین دیده‌ایم که این ربات قادر به ساخت اپلیکیشنی با کارکرد بسیار مشابه به اینستاگرام است. GPT-3 در این راه از پلاگین Figma استفاده کرده که به صورت گسترده برای طراحی اپلیکیشن از سوی توسعه‌دهندگان استفاده می‌شود.

چنین اتفاقی بدیهتا بسیار انقلابی است و اگر در طولانی‌مدت نیز قابل استفاده و کارآمد باشد، می‌تواند تاثیری شگرف روی چگونگی توسعه نرم‌افزار و اپلیکیشن در آینده بگذارد. از آن‌جایی که سورس کد این ربات هنوز به صورت عمومی منتشر نشده، دسترسی به GPT-3 تنها از طریق رابط برنامه‌نویسی توسعه یافته از سوی OpenAI امکان‌پذیر است. از زمانی که این رابط برنامه‌نویسی در ماه ژوئن امسال در دسترس قرار گرفت، شاهد ظهور انبوهی از متون مختلف مانند شعر، نثر، گزارش‌های خبری و نوشته‌های علمی-تخیلی بوده‌ایم.

GPT-3 چند وقت پیش یک مقاله بسیار جالب برای خبرگزاری گاردین نوشت و با لحنی بسایر متقاعدکننده توضیح داد که چرا انسان‌ها نباید از هوش مصنوعی و خطرات بالقوه آن بترسند. با این همه GPT-3 در بخشی از مقاله خود اعتراف کرد که اگر افراد شرور آن را مجبور به کارهای شرورانه کنند «نمی‌توانم از نابودی گونه بشری جلوگیری کنم».
GPT-3 چطور کار می‌کند؟

از منظر اینکه ربات OpenAI در کدام دسته‌بندی کلی از هوش‌های مصنوعی قرار می‌گیرد باید گفت که GPT-3 یک مدل پیش‌بینی زبان است. این یعنی GPT-3 یک ساختار الگوریتم است که طراحی شده تا یک تکه از زبان (یعنی یک ورودی) را برداشته و آن را تبدیل به چیزی کند که بنابر پیش‌بینی خودش، کارآمدترین بخش از زبان برای کاربر است.

تمام این‌ها به لطف متونی است که در فاز «پیش‌تعلیم» به صورت گسترده در اختیار هوش مصنوعی قرار گرفته‌اند. برخلاف الگوریتم‌های دیگر که در وضعیت خالص خود هیچ تعلیمی ندیده‌اند، OpenAI همین حالا انبوهی از منابع کامپیوتری ضروری را در اختیار GPT-3 قرار داده تا درکی درست از کارکرد زبان و ساختار آن داشته باشد. گفته می‌شود تمام تلاش و وقتی که OpenAI صرف تعلیم دادن این هوش مصنوعی کرده بالغ بر ۴.۶ میلیون دلار هزینه داشته است.

 

برای یادگیری اینکه ساختارهای رایج زبان -مانند جملات- چطور کار می‌کنند، GPT-3 از تحلیل معنایی استفاده می‌کند. این یعنی ربات نه‌تنها کلمات و معنای آن‌ها را تحلیل می‌کند، بلکه درکی کلی از چگونگی استفاده از کلمات در کنار کلمات دیگر متن به دست می‌آورد.

GPT-3 ضمنا یک فرم از یادگیری ماشین است که بدون نیاز به نظارت،‌ روند یادگیری را طی می‌کند. این بدان خاطر است که هیچ‌کدام از داده‌های آموزشی ربات «درست» یا «غلط» تلقی نمی‌شوند. تمام اطلاعاتی که ربات برای محاسبه سازگاری خروجی با نیاز کاربر لازم دارد، درون خود متن است و بنابراین نظارت انسانی ضروری به حساب نمی‌آید. GPT-3 این کار را با مطالعه روی موارد استفاده از کلمات و جملات به انجام می‌رساند، بعد آن‌ها را از یکدیگر جدا کرده و دوباره خود بازنویسی می‌کند.

برای مثال در جریان روند تعلیم، الگوریتم ممکن است با جمله «خانه دری قرمز رنگ دارد» مواجه شود. بعد همین جمله به صورت مجدد، اما بدون یکی از کلمات در اختیار ربات قرار می‌گیرد. مانند «خانه X قرمز رنگ دارد». در این مرحله، GPT-3 تمام متون موجود در داده آموزشی را اسکن می‌کند -داده‌هایی شامل هزاران میلیارد کلمه که به شکل زبان قابل فهم کنار یکدیگر چیده شده‌اند- و تصمیم می‌گیرد که کدام کلمه برای بازسازی جمله اصلی مناسب خواهد بود.

در ابتدای کار احتمالا ربات دست به اشتباه فراوان می‌زند. در واقع میلیون‌ها بار اشتباه می‌کند. اما در نهایت قادر به یافتن کلمه درست خواهد بود. با چک کردن داده ورودی اصلی، ربات می‌فهمد که از خروجی درست استفاده کرده و یک امتیاز «وزن» به آن پروسه الگوریتم که به پاسخ درست دست یافته تعلق می‌گیرد. این یعنی ربات به صورت آهسته اما پیوسته «می‌آموزد» که کدام متدها برای رسیدن به پاسخ صحیح در آینده بهتر هستند.

باید اشاره کرد که کار GPT-3 آنقدرها تازه نیست و برای سالیان متمادی با مدل‌های مختلف پیش‌بینی زبان مواجه بوده‌ایم. اما وزنی که الگوریتم به صورت پویا در حافظه خود ذخیره کرده و برای هر کوئری به کار می‌گیرد معادل ۱۷۵ میلیارد است – یعنی ۱۰ برابر بیشتر از نزدیک‌ترین رقیبش که توسط شرکت انویدیا توسعه یافته.
رایج‌ترین مشکلات GPT-3 چیست؟

توانایی GPT-3 در تولید زبان به عنوان برترین نمونه در دنیای هوش مصنوعی تلقی می‌شود، اما باید به چند نکته دیگر نیز توجه داشت. مدیرعامل OpenAI، یعنی سم آلتمن خود گفته است که: «هیجان برای GPT-3 بیش از حد است. هوش مصنوعی قرار است چهره جهان را دگرگون کند، اما GPT-3 صرفا یک گام کوچک و زودهنگام در این مسیر است».

نخستین مشکل GPT-3 اینست که اکنون ابزاری بسیار گران‌قیمت به حساب می‌آید، در واقع به این خاطر که به انبوهی از قدرت پردازشی برای انجام وظایف خود نیاز دارد. این یعنی هزینه استفاده از آن از بودجه بسیاری از سازمان‌های کوچک فراتر خواهد بود.

مشکل دوم هم سیستم بسته و جعبه سیاه گونه GPT-3 است. OpenAI هیچوقت از جزییات مربوط به چگونگی کارکرد الگوریتم خود پرده برنداشته و بنابراین هرکسی که از آن برای پاسخ دادن به سوالات یا ساخت محصولات مفید استفاده می‌کند، نخواهد دانست این ربات چطور طراحی شده.

بعد به مشکل سوم می‌رسیم که بی‌نقص نبودن خروجی سیستم است. اگرچه GPT-3 می‌تواند وظایفی مانند نوشتن متون کوتاه یا اپلیکیشن‌های ساده را برعهده بگیرد، هنگامی که به سراغ متون طولانی‌تر و پیچیده‌تر می‌رود کارایی کمتری از خود نشان می‌دهد. در واقع خروجی‌های این ربات در چنین حالتی کاملا بی‌معنی هستند.

در مجموع و برای جمع‌بندی باید گفت که GPT-3 نتایجی تولید می‌کند که بسیار بهتر از آن‌چه قبلا دیده‌ایم هستند. هرکسی که نتایج زبان هوش مصنوعی را دیده باشد می‌داند که نتایج می‌توانند متغیر باشند، اما خروجی GPT-3 به شکلی بدون تردید مثل گامی بلند به سمت جلو به نظر می‌رسند. زمانی که بتوانیم شاهد استفاده عمومی از این ربات باشیم، آن موقع است که عملکرد ربات OpenAI حتی از قبل هم تحسین‌برانگیزتر خواهد شد.

منبع – جام جم آنلاین

کارشناس ارشد و مدیر علم داده و هوش مصنوعی

استخدام کارشناس ارشد و مدیر برنامه نویس پایتون در تیم علم داده و هوش مصنوعی شرکت مهندسی مشاور عصر فناوری دانش 
*امکان همکاری تمام وقت میسر است. 

 *امکان همکاری سرباز همکار (امریه برای شرکت های دانش بنیان) نيز میسر است. 

ارسال رزومه : AI-DS@KTE.IR

کارشناس برنامه نویس پایتون

استخدام کارشناس برنامه نویس پایتون در تیم علم داده و هوش مصنوعی شرکت مهندسی مشاور عصر فناوری دانش 
*امکان همکاری تمام وقت – پاره وقت میسر است. 

 *امکان همکاری با کارآموز و سرباز همکار (امریه برای شرکت های دانش بنیان) نيز میسر است. 

ارسال رزومه : AI-DS@KTE.IR