مطالب توسط

معمار پلتفرم داده و برنامه نويس یادگیری ماشین و یادگیری عمیق

استخدام معمار پلتفرم داده و برنامه نویس یادگیری کاشین و یادگیری عمیق در شرکت مهندسی مشاور عصر فناوری دانش 

*امکان همکاری تمام وقت میسر است. 

*امکان همکاری سرباز همکار (امریه برای شرکت های دانش بنیان) نيز میسر است. 

ارسال رزومه : AI-DS@KTE.IR

جعل عمیق Deep Fake

دیپ فیک (Deepfake) یا جعل عمیق نوعی فناوری بر پایه هوش مصنوعی است که برای تولید یا تغییر محتوای ویدیویی استفاده میشود تا ویدیو نمایانگر چیزی باشد که، در واقع، اصلاً اتفاق نیفتاده است.

نام گذاری دیپ فیک به پیروی از نام کاربری یک کاربر Reddit به نام deepfakes انجام شده است که در دسامبر 2017 از فناوری یادگیری عمیق جهت جایگذاری چهره سلبریتی ها به جای چهره افراد در فیلم های مستهجن استفاده کرده بود. این عبارت، که هم به فناوری مورد استفاده و هم ویدیوهای ساخته شده توسط آن اشاره دارد، ترکیبی از یادگیری عمیق (deep learning) و جعل (fake) است.

ویدیو جعل عمیق توسط دو سیستم هوش مصنوعی رقیب ایجاد میشود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی میسازد و از تفکیک کننده میپرسد که آیا ویدیو واقعی است یا نه. هربار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی میدهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد.

تولید کننده و تفکیک کننده باهم، یک شبکه تخاصمی تولیدی (Generative Adversarial Network) یا GAN تشکیل میدهند. اولین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولید کننده است. هنگامی که تولید کننده شروع به تولید خروجی هایی قابل قبول کند، کلیپ های ویدیویی را می توان وارد تفکیک کننده نمود.

با بهبود تولید کننده در تولید کلیپ های ویدیویی، تفکیک کننده نیز در شناسایی آنها بهتر میشود. برعکس، با بهبود تفکیک کننده در شناسایی ویدیوهای جعلی، تولید کننده در ساخت آنها بهتر میشود.

تا همین اواخر، تغییر محتوای ویدیویی به طرزی محسوس، بسیار سخت تر بود. با این حال، چون جعل عمیق توسط هوش مصنوعی ساخته میشود، مهارت چشمگیر مورد نیاز جهت تولید ویدیویی واقع گرا به روش های دیگر را نیاز ندارد. متاسفانه، این بدان معناست که هرکسی میتواند یک ویدیوی جعلی عمیق برای ترویج موضوع مورد نظر خود تولید کند. یکی از خطرات مرتبط این است که افراد ممکن است این ویدیوها را باور کنند، خطر دیگر این است که ممکن است دیگر به اعتبار هیچ ویدویی نتوان اعتماد کرد.

عرفان ابراهیم اصفهانی – مدياسافت

بینایی ماشین، بینایی کامپیوتر و پردازش تصویر

در یک نگاه اولیه، بینایی ماشین یاMachine Vision ، فناوریها و روش های مورد استفاده جهت ارائه تحلیل مبتنی بر تصویر، در کاربردهای معمولاً صنعتی از قبیل بازرسی، تحلیل خودکار، کنترل فرآیند و هدایت رباتها است.

تفاوت بینایی ماشین و بینایی کامپیوتر

بینایی ماشین به فناوری ها، محصولات نرم افزاری و سخت افزاری، سیستم های مجتمع، عملیات، روش ها و مهارت های زیادی اشاره میکند. بینایی ماشین به عنوان یک زمینه مهندسی سامانه ها، میتواند متمایز از بینایی کامپیوتر که شکلی از علوم کامپیوتر است در نظر گرفته شود. این رشته سعی در یکپارچه سازی فناوری های موجود به روش های جدید و استفاده از آنها در حل مسائل جهان واقعی دارد. این عبارت برای عملکردهای فوق در محیط های اوتوماسیون صنعتی رایج تر است اما برای توصیف همین عملکردها در چارچوب های دیگر مثل امنیت و هدایت وسیله نقلیه نیز استفاده میشود.

فرآیند کلی بینایی ماشین شامل طرح ریزی جزیی ملزومات و پروژه، و سپس ساخت راه حل است. در زمان اجرا (Run-time)، این فرآیند با تصویر برداری آغاز میشود و با تحلیل خودکار تصویر و استخراج اطلاعات لازم ادامه پیدا میکند.

تعریف بینایی ماشین یا Machine vision

تعاریف مختلفی از “بینایی ماشین” در دسترس هستند اما همگی شامل فناوری و روش های مصرفی جهت استخراج خودکار اطلاعات از تصویر هستند. (برخلاف پردازش تصویر که خروجی آن یک تصویر دیگر است.) اطلاعات استخراج شده میتواند یک سیگنال ساده بخش خوب/بخش بد، یا مجموعه ای پیچیده تر از داده ها مثل هویت، موقعیت و جهت گیری هر شیء در تصویر باشد. تعریف وسیع تر همچنین شامل محصولات و کاربردهایی است که اغلب با پردازش تصویر مرتبط میشوند. اولویت های مصرفی برای بینایی ماشین، بارزسی خودکار و هدایت صنعتی فرآیند/رباتهاست.

پردازش تصویر

عموماً پس از ایجاد تصویر، آن را پردازش میکنند. همچنین از چند مرحله پردازش در توالی هایی که به نتیجه مطلوب میرسند، بهره گرفته میشود. یک توالی عادی ممکن است با ابزاری مثل فیلترها شروع شود که تصویر را اصلاح میکنند، در ادامه استخراج اشیاء، سپس استخراج داده از این اشیاء (مثلاً اندازه گیری یا خواندن کدها)، و در نهایت انتقال این داده ها یا مقایسه آنها با مقادیر هدف جهت ارائه و اعلام نتایج “عبور/عدم عبور”.

عرفان ابراهیم اصفهانی – مدیاسافت

زیرساخت اینترنت اشیاء در ۵۰ هزار نقطه تهران به‌صورت پایلوت اجرا می‌شود.

رایتل با امضای تفاهم‌نامه با شرکت توزیع برق تهران در مسیر توسعه‌ی زیرساخت ارتباطی کنتور‌های هوشمند و اینترنت اشیاء قدم برمی‌دارد.

شرکت خدمات ارتباطی رایتل با امضای تفاهم‌نامه‌ی همکاری با شرکت توزیع برق تهران بزرگ قصد دارد در مسیر توسعه‌ی زیرساخت ارتباطی کنتور‌های هوشمند و اینترنت اشیاء در پایتخت قدم بردارد. تفاهم‌نامه‌ی مذکور صبح امروز در نمایشگاه اینترنت اشیاء میان حسین صبوری، مدیرعامل توزیع برق تهران بزرگ و یاسر رضاخواه، مدیرعامل شرکت خدمات ارتباطی رایتل، مبادله شد. در این تفاهم‌نامه، آمده است که حداکثر ۵۰ هزار نقطه در مناطق زیر پوشش توزیع تهران بزرگ مبتنی‌بر فناوری اینترنت اشیاء (IoT) به‌صورت پایلوت اجرا خواهد شد.

تفاهم‌نامه‌ی مذکور با محور تأمین شبکه‌ی ارتباطی موردنیاز ارائه‌ی خدمات کنترل مستقیم بار (DLC) و هوشمندسازی کنتور‌های برق و با هدف قرائت کنتور‌های مشترکان از راه دور توزیع تهران بزرگ بر بستر شبکه‌ی پیشرفته‌ی مخابراتی رایتل مبتنی‌بر روش‌های مختلف ارتباطی (ازقبیل روش‌های مبتنی‌بر سیم‌کارت یا سایر روش‌های ارتباطی) و بر بستر فناوری‌های مختلف ارتباطی مانند 3G/4G NB-IOT ،LTE-M ،5G ،LoRa به امضای طرفین رسید. البته تبادل این تفاهم‌نامه به‌معنای ایجاد انحصار برای شرکت رایتل نیست و شرکت توزیع نیرو تهران همچنان به دریافت خدمات از سایر اپراتو‌های مخابراتی مجاز خواهد بود.

فاطمه مختاری – زومیت

انعقاد قرارداد هوش تجاری با شرکت برق منطقه ای خراسان

1399/12/26

با عقد قرارداد هوش تجاری فرابر با شرکت برق منطقه ای خراسان امکان اتصال به سامانه های الکترونیکی این شرکت و انجام فرآیندهای ETL؛ پاکسازی داده ها و ایجاد انبار داده های موضوعی میسر میگردد. امید است تا با اين قرارداد، امکان بازآفرينی سازمان داده محور در اين شرکت نهادینه گردد.  

تحليل گرافهای حمله وزن دار با استفاده از الگوريتمهای ژنتيك

هر گراف حمله مجموعه ای از سناریوهای نفوذ به یک شبکه کامپیوتری را نمایش می دهد. در این مقاله، از گراف های حمله وزن دار برای تحلیل آسیب پذیری شبکه های کامپیوتری استفاده می شود. در این گراف های حمله به هر سوء استفاده توسط تحلیل گر وزنی نسبت داده می شود. وزن نسبت داده شده به هر سوء استفاده متناسب با هزینه لازم برای جلوگیری از آن سوء استفاده است. هدف از تحلیل گراف های حمله وزن دار یافتن یک مجموعه بحرانی از سوء استفاده ها است که مجموع وزن های آنها کمترین مقدار ممکن باشد و با جلوگیری از آنها هیچ سناریوی نفوذی امکان پذیر نباشد. در این مقاله، یک الگوریتم حریصانه، یک الگوریتم ژنتیک با عملگر جهش حریصانه و یک الگوریتم ژنتیک با تابع برازندگی پویا برای تحلیل گراف های حمله وزن دار پیشنهاد می شود. از الگوریتم های پیشنهادی برای تحلیل گراف حمله وزن دار یک شبکه مثالی و چندین گراف حمله وزن دار مقیاس بزرگ استفاده می شود. نتایج بدست آمده از آزمایش ها، عملکرد بهتر الگوریتم های ژنتیک پیشنهادی را نسبت به الگوریتم حریصانه نشان می دهند به گونه ای که الگوریتم های ژنتیک فوق قادر هستند مجموعه های بحرانی از سوء استفاده ها با مجموع وزن های کمتر را پیدا کنند. همچنین، از الگوریتم ژنتیک با تابع برازندگی پویا برای تحلیل چندین گراف حمله ساده مقیاس بزرگ استفاده می شود و عملکرد آن با یک الگوریتم تقریبی برای تحلیل گراف های حمله ساده مقایسه می شود.

درباره GPT-3

چند وقتی است که توجه دنیای تکنولوژی به رباتی تازه توسعه‌یافته به نام GPT-3 جلب شده که به زعم بسیاری قرار است دنیای هوش مصنوعی را دگرگون کند. اگر بخواهیم خیلی ساده توضیح دهیم: GPT-3 رباتی است که مهارت فراوان در ایجاد محتوا در ساختار رایج زبان انسانی و زبان ماشینی دارد و بسیار پیشرفته‌تر از پیشینیان خود ظاهر می‌شود.

 

به گزارش جام جم آنلاین به نقل از دیجیاتو،شرکت OpenAI مسئولیت ساخت GPT-3 را برعهده داشته، شرکتی تحقیقاتی که ایلان ماسک یکی از موسسین آن بوده و به عنوان یکی ستون‌های اصلی پیشرفت هوش مصنوعی در سال‌های پیش رو تلقی می‌شود.

اما به همان اندازه که مردم برای این ربات هیجان‌زده‌اند، اطلاعات اندکی نیز راجع به کارهایی که می‌تواند (و نمی‌تواند) انجام دهد نیز دارند. بنابراین در این مقاله با زبان بسیار ساده مسائل پیرامون GPT-3 را تشریح خواهیم کرد تا درک بهتری از ماهیت آن داشته باشید. علاوه بر این به برخی از مشکلات بالقوه این هوش مصنوعی خواهیم پرداخت و اینکه چرا برخی عقیده دارند به خاطر هیجان بیش از حد، برخی از برجسته‌ترین توانایی‌های ربات OpenAI نادیده گرفته شده است.
GPT-3 چیست؟

کار را با ساده‌ترین مسائل شروع می‌کنیم. GPT-3 مخفف «Generative Pre-trained Transformer 3» است و در واقع ورژن سوم از این ابزار است که هنوز در دسترس عموم قرار نگرفته.

اگر بخواهیم خلاصه بگوییم، نام‌گذاری GPT-3 بدان معناست که می‌تواند با استفاده از الگوریتم‌هایی که از پیش تعلیم دیده‌اند، متن تولید کند. این الگوریتم‌ها از قبل اطلاعات لازم برای انجام وظایف خود را دریافت کرده‌اند. دقیق‌تر می‌گوییم، این ربات با ۵۷۰ گیگابایت اطلاعات جمع‌آوری شده از سطح اینترنت (چه در دیتابیس‌های عمومی و چه خصوصی) تعلیم دیده و OpenAI هم برخی دیگر از متون (مانند مقالات ویکیپدیا) را دستچین کرده و در اختیار ربات قرار داده.

اگر از این ربات یک سوال بپرسید، می‌توانید منتظر پاسخی بسیار کارآمد باشید. اگر هم از آن بخواهید که یک خلاصه از مقاله یا یک شعر بنویسد، دقیقا همین‌ کارها را برایتان خواهد کرد. اگر فنی‌تر با موضوع برخورد کنیم، این ربات به عنوان بزرگ‌ترین شبکه عصبی مصنوعی جهان شناخته می‌شود و جلوتر به این موضوع هم خواهیم پرداخت.
GPT-3 قادر به انجام چه کاریست؟

GPT-3 قادر به هرچیزی درون ساختار زبان است. بنابراین می‌تواند به سوالات پاسخ دهد، مقاله بنویسد، متون طولانی را خلاصه کند، زبان‌ها را ترجمه کند، نت‌ بردارد و حتی کد کامپیوتری بنویسد.

در واقع در یک دموی آنلاین دیده‌ایم که این ربات قادر به ساخت اپلیکیشنی با کارکرد بسیار مشابه به اینستاگرام است. GPT-3 در این راه از پلاگین Figma استفاده کرده که به صورت گسترده برای طراحی اپلیکیشن از سوی توسعه‌دهندگان استفاده می‌شود.

چنین اتفاقی بدیهتا بسیار انقلابی است و اگر در طولانی‌مدت نیز قابل استفاده و کارآمد باشد، می‌تواند تاثیری شگرف روی چگونگی توسعه نرم‌افزار و اپلیکیشن در آینده بگذارد. از آن‌جایی که سورس کد این ربات هنوز به صورت عمومی منتشر نشده، دسترسی به GPT-3 تنها از طریق رابط برنامه‌نویسی توسعه یافته از سوی OpenAI امکان‌پذیر است. از زمانی که این رابط برنامه‌نویسی در ماه ژوئن امسال در دسترس قرار گرفت، شاهد ظهور انبوهی از متون مختلف مانند شعر، نثر، گزارش‌های خبری و نوشته‌های علمی-تخیلی بوده‌ایم.

GPT-3 چند وقت پیش یک مقاله بسیار جالب برای خبرگزاری گاردین نوشت و با لحنی بسایر متقاعدکننده توضیح داد که چرا انسان‌ها نباید از هوش مصنوعی و خطرات بالقوه آن بترسند. با این همه GPT-3 در بخشی از مقاله خود اعتراف کرد که اگر افراد شرور آن را مجبور به کارهای شرورانه کنند «نمی‌توانم از نابودی گونه بشری جلوگیری کنم».
GPT-3 چطور کار می‌کند؟

از منظر اینکه ربات OpenAI در کدام دسته‌بندی کلی از هوش‌های مصنوعی قرار می‌گیرد باید گفت که GPT-3 یک مدل پیش‌بینی زبان است. این یعنی GPT-3 یک ساختار الگوریتم است که طراحی شده تا یک تکه از زبان (یعنی یک ورودی) را برداشته و آن را تبدیل به چیزی کند که بنابر پیش‌بینی خودش، کارآمدترین بخش از زبان برای کاربر است.

تمام این‌ها به لطف متونی است که در فاز «پیش‌تعلیم» به صورت گسترده در اختیار هوش مصنوعی قرار گرفته‌اند. برخلاف الگوریتم‌های دیگر که در وضعیت خالص خود هیچ تعلیمی ندیده‌اند، OpenAI همین حالا انبوهی از منابع کامپیوتری ضروری را در اختیار GPT-3 قرار داده تا درکی درست از کارکرد زبان و ساختار آن داشته باشد. گفته می‌شود تمام تلاش و وقتی که OpenAI صرف تعلیم دادن این هوش مصنوعی کرده بالغ بر ۴.۶ میلیون دلار هزینه داشته است.

 

برای یادگیری اینکه ساختارهای رایج زبان -مانند جملات- چطور کار می‌کنند، GPT-3 از تحلیل معنایی استفاده می‌کند. این یعنی ربات نه‌تنها کلمات و معنای آن‌ها را تحلیل می‌کند، بلکه درکی کلی از چگونگی استفاده از کلمات در کنار کلمات دیگر متن به دست می‌آورد.

GPT-3 ضمنا یک فرم از یادگیری ماشین است که بدون نیاز به نظارت،‌ روند یادگیری را طی می‌کند. این بدان خاطر است که هیچ‌کدام از داده‌های آموزشی ربات «درست» یا «غلط» تلقی نمی‌شوند. تمام اطلاعاتی که ربات برای محاسبه سازگاری خروجی با نیاز کاربر لازم دارد، درون خود متن است و بنابراین نظارت انسانی ضروری به حساب نمی‌آید. GPT-3 این کار را با مطالعه روی موارد استفاده از کلمات و جملات به انجام می‌رساند، بعد آن‌ها را از یکدیگر جدا کرده و دوباره خود بازنویسی می‌کند.

برای مثال در جریان روند تعلیم، الگوریتم ممکن است با جمله «خانه دری قرمز رنگ دارد» مواجه شود. بعد همین جمله به صورت مجدد، اما بدون یکی از کلمات در اختیار ربات قرار می‌گیرد. مانند «خانه X قرمز رنگ دارد». در این مرحله، GPT-3 تمام متون موجود در داده آموزشی را اسکن می‌کند -داده‌هایی شامل هزاران میلیارد کلمه که به شکل زبان قابل فهم کنار یکدیگر چیده شده‌اند- و تصمیم می‌گیرد که کدام کلمه برای بازسازی جمله اصلی مناسب خواهد بود.

در ابتدای کار احتمالا ربات دست به اشتباه فراوان می‌زند. در واقع میلیون‌ها بار اشتباه می‌کند. اما در نهایت قادر به یافتن کلمه درست خواهد بود. با چک کردن داده ورودی اصلی، ربات می‌فهمد که از خروجی درست استفاده کرده و یک امتیاز «وزن» به آن پروسه الگوریتم که به پاسخ درست دست یافته تعلق می‌گیرد. این یعنی ربات به صورت آهسته اما پیوسته «می‌آموزد» که کدام متدها برای رسیدن به پاسخ صحیح در آینده بهتر هستند.

باید اشاره کرد که کار GPT-3 آنقدرها تازه نیست و برای سالیان متمادی با مدل‌های مختلف پیش‌بینی زبان مواجه بوده‌ایم. اما وزنی که الگوریتم به صورت پویا در حافظه خود ذخیره کرده و برای هر کوئری به کار می‌گیرد معادل ۱۷۵ میلیارد است – یعنی ۱۰ برابر بیشتر از نزدیک‌ترین رقیبش که توسط شرکت انویدیا توسعه یافته.
رایج‌ترین مشکلات GPT-3 چیست؟

توانایی HPT-3 در تولید زبان به عنوان برترین نمونه در دنیای هوش مصنوعی تلقی می‌شود، اما باید به چند نکته دیگر نیز توجه داشت. مدیرعامل OpenAI، یعنی سم آلتمن خود گفته است که: «هیجان برای GPT-3 بیش از حد است. هوش مصنوعی قرار است چهره جهان را دگرگون کند، اما GPT-3 صرفا یک گام کوچک و زودهنگام در این مسیر است».

نخستین مشکل GPT-3 اینست که اکنون ابزاری بسیار گران‌قیمت به حساب می‌آید، در واقع به این خاطر که به انبوهی از قدرت پردازشی برای انجام وظایف خود نیاز دارد. این یعنی هزینه استفاده از آن از بودجه بسیاری از سازمان‌های کوچک فراتر خواهد بود.

مشکل دوم هم سیستم بسته و جعبه سیاه گونه GPT-3 است. OpenAI هیچوقت از جزییات مربوط به چگونگی کارکرد الگوریتم خود پرده برنداشته و بنابراین هرکسی که از آن برای پاسخ دادن به سوالات یا ساخت محصولات مفید استفاده می‌کند، نخواهد دانست این ربات چطور طراحی شده.

بعد به مشکل سوم می‌رسیم که بی‌نقص نبودن خروجی سیستم است. اگرچه GPT-3 می‌تواند وظایفی مانند نوشتن متون کوتاه یا اپلیکیشن‌های ساده را برعهده بگیرد، هنگامی که به سراغ متون طولانی‌تر و پیچیده‌تر می‌رود کارایی کمتری از خود نشان می‌دهد. در واقع خروجی‌های این ربات در چنین حالتی کاملا بی‌معنی هستند.

در مجموع و برای جمع‌بندی باید گفت که GPT-3 نتایجی تولید می‌کند که بسیار بهتر از آن‌چه قبلا دیده‌ایم هستند. هرکسی که نتایج زبان هوش مصنوعی را دیده باشد می‌داند که نتایج می‌توانند متغیر باشند، اما خروجی GPT-3 به شکلی بدون تردید مثل گامی بلند به سمت جلو به نظر می‌رسند. زمانی که بتوانیم شاهد استفاده عمومی از این ربات باشیم، آن موقع است که عملکرد ربات OpenAI حتی از قبل هم تحسین‌برانگیزتر خواهد شد.

منبع – جام جم آنلاین

کارشناس ارشد و مدیر علم داده و هوش مصنوعی

استخدام کارشناس ارشد و مدیر برنامه نویس پایتون در تیم علم داده و هوش مصنوعی شرکت مهندسی مشاور عصر فناوری دانش 
*امکان همکاری تمام وقت میسر است. 

 *امکان همکاری سرباز همکار (امریه برای شرکت های دانش بنیان) نيز میسر است. 

ارسال رزومه : AI-DS@KTE.IR

کارشناس برنامه نویس پایتون

استخدام کارشناس برنامه نویس پایتون در تیم علم داده و هوش مصنوعی شرکت مهندسی مشاور عصر فناوری دانش 
*امکان همکاری تمام وقت – پاره وقت میسر است. 

 *امکان همکاری با کارآموز و سرباز همکار (امریه برای شرکت های دانش بنیان) نيز میسر است. 

ارسال رزومه : AI-DS@KTE.IR

معرفی دیتاست‌های پردازش متن فارسی

توسط دکتر محمد طاهر پیله ور سايت http://nlpdataset.ir/ برای معرفی دیتاست‌های پردازش متن فارسی تهیه و ارائه شده است. ضمنا امکان مشارکت و معرفی دیگر مجموعه داده‌ها نيز میسر خواهد بود و این سایت در حال بروز رسانی موارد جدید است.