Web Analytics Made Easy - Statcounter

کلیپی در شبکه‌های مجازی منتشر شده است که تصویر یک بازیگر زن و یک دیپ‌فِیک (تصویر تولیدشده با هوش مصنوعی) را در کنار هم به نمایش می‌گذارد. شباهت این دو به یکدیگر، باعث شگفتی و در عین حال ترس کاربران از آینده شده است.

به گزارش گروه علم و آموزش ایران اکونومیست از وبگاه دِیلی مِیل (Daily Mail)، ویدیویی در اینترنت به اشتراک گذاشته شده است که تصویر یک زن بازیگر واقعی و  یک دیپ‌فِیک (جعل عمیق) تولیدشده توسط هوش مصنوعی را به نمایش می‌گذارد و کاربران باید تشخیص دهند کدامیک واقعی است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

کاربران به این نتیجه رسیدند که تصویر جعلی بسیار قانع‌کننده به‌نظر می‌رسد.

در این کلیپ کوتاه که در توییتر به اشتراک گذاشته شده است، الیزابت اولسن (Elizabeth Olsen)، که تصویرش با هوش مصنوعی تولید شده است، در یک طرف و اسکارلت جوهانسون (Scarlett Johansson) در طرف دیگر حضور دارد. هر دوی آن‌ها در حال صحبت‌کردن هستند و حرکات و مدل موی آن‌ها به هم شباهت دارد.

 

 

بسیاری از کاربران توییتر از اینکه هر دوی آن‌ها کاملاً واقعی به نظر می‌رسند، شگفت‌زده شده‌اند؛ اما برخی از آن‌ها توانسته‌اند تشخیص بدهند کدامیک اسکارلت جوهانسون واقعی است؛ زیرا هنگامی که موهای چتری‌ روی صورت او می‌افتند، به نظر می‌رسد که او دو ابرو دارد و برخی از سایه‌ها در مکان‌های مناسبی نمی‌افتند.

مشخص نیست که دیپ‌فیک چگونه ساخته شده است؛ اما به نظر می‌رسد که تلاش شده است تا جوهانسون کاملاً شبیه به اولسن به نظر برسد؛ همان مدل مو، همان آرایش و همان لباس. در هر صورت، کاربران از شدت واقعی‌بودن دیپ‌فیک شگفت‌زده شده‌اند و از آنچه در آینده روی خواهد داد، وحشت کرده‌اند.

 

                                  Playback Rates   0.5x1x1.25x1.5x2x             Rewind 10 Seconds Next Up           Live 00:00 00:00 00:14   Chromecast Closed Captions Settings Fullscreen  

 

در یک نگاه، آن‌ها دوقلو به‌ نظر می‌رسند اما برخی از کاربران توییتر این ویدیوها را بررسی کردند تا ترفندهای دیپ‌فیک را کشف کنند. نظر کاربران این بود که با اینکه نقص‌هایی وجود دارد، دیپ‌فیک بسیار قانع‌کننده به نظر می‌رسد.

ایان گودفِلو (Ian Goodfellow)، مدیر یادگیری ماشین در گروه پروژه‌های ویژه اپل، دیپ‌فیک را در سال ۲۰۱۴ اختراع کرد. دیپ‌فِیک (deepfake) از دو واژه یادگیری عمیق (deep learning) و جعلی (fake) متشکل شده و شکلی از هوش مصنوعی است.

این سیستم بر تصاویر و ویدیوهای یک شخص مطالعه می‌کند و سپس چندین زاویه را ثبت و از رفتار و الگوهای گفتاری آن شخص تقلید می‌کند.

این فناوری در زمان انتخابات توجه بسیاری را جلب کرد؛ زیرا افراد بسیاری نگران بودند که طراحان آن از آن برای تضعیف شهرت نامزدهای سیاسی استفاده کنند؛ با این حال، برخی سازندگان از این فناوری برای شرارت استفاده نمی‌کنند و فقط مردم را سرگرم می‌کنند.

  منبع: خبرگزاری ایرنا برچسب ها: توییتر ، هوش مصنوعی ، یادگیری ماشین ، فناوری ، برگزیدگان علم

منبع: ایران اکونومیست

کلیدواژه: توییتر هوش مصنوعی یادگیری ماشین فناوری برگزیدگان علم نظر می رسد هوش مصنوعی دیپ ف یک دیپ فیک

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت iraneconomist.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایران اکونومیست» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۶۳۱۴۴۱۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

واکنش کاربران شبکه‌های اجتماعی به دروغ‌های بی‌بی‌سی درباره فوت نیکا شاکرمی

بی‌بی‌سی در روز‌های اخیر که اخبار مقابله خشن پلیس امریکا با معترضان به جنایات رژیم خبیث صهیونیستی در صدر اخبار جهان است، تلاش کرد با یک خبرسازی غیرحرفه‌ای، اخباری پیرامون فوت نیکا شاکرمی منتشر کند. اخبار و سند منتشر شده از سوی بی‌بی‌سی، اما با تمسخر کاربران شبکه‌های اجتماعی همراه بود. جعل سند انجام شده آنقدر غیرحرفه‌ای است که کاربران ده‌ها نکته از این جعل به اشتراک گذاشتند. در ادامه بخش‌هایی از واکنش‌های کاربران را مرور کرده‌ایم. 

 محمد اکبرزاده:
سوتی و تناقضات بی‌بی‌سی در خبرسازی جدید اونقدر مضحک و فاحش هست که مجبور شده یه راه در رو برای خودش بذاره! سؤال اینه که با این خبرسازی دنبال چی بوده که حاضر شده به این بی‌آبرویی بزرگ تن بده؟ [در متن خبر بی‌بی‌سی آمده است: «بی‌بی‌سی نمی‌تواند ۱۰۰ درصد در این باره مطمئن باشد.]»

مهدی محمدی:
ضرورت فوری لطمه زدن به تأثیر شگفت عملیات وعده صادق بر افکار عمومی ایران و سپس آغاز مناقشه برانگیز عملیات پلیس در مقوله حجاب، اجرای یک پروژه جدید روانی برای تحریک جامعه در حوزه زنان را کاملاً پیش‌بینی پذیر کرده بود. قدم بعدی ممکن است یک واقعه فیزیکی برنامه‌ریزی شده کف خیابان باشد. 

 محمدجواد اخوان:
هر چقدر هم سند درست کنید و فوت نیکا شاکرمی را گردن نظام بیندازید، فایل‌های جعلی و فتوشاپی نمی‌تواند آن چه را در روز روشن در دانشگاه‌های امریکا و اروپا رخ می‌دهد، از چشم جهانیان پنهان کند. 

 علی چاهخوزاده:
انتشار گزارش BBC درباره نیکا شاکرمی در بحبوحه تظاهرات دانشجویان در امریکا، جنگ غزه و پاسخ ایران نشان از آن دارد که انگلستان قصد دارد تمام تلاش خود را به کار گیرد تا مخالفت با صهیونیست‌ها از صدر رسانه‌ها کنار رود و البته بتواند جایگزین امریکا شود که امری محال خواهد بود.

 امین میمندیان:
حالا همین جماعت، سر آرمیتا گراوند حرف هیچ شاهد و هیچ دوربین و والدین طرف و هیشکی رو قبول نداشتند. الان سر گزارش بی‌بی‌سی که نه شاهد داره، نه سند داره، نه عکس داره، نه حتی همون نامه کذا نسخه اصلیشه، نه حتی خود BBC گفته ازش مطمئنم؛ اینا میگن درسته و جمهوری اسلامی داره دروغ میگه. #نیکا_شاکرمی

 سید علیرضا آل‌داود:
خودکشی نیکا شاکرمی ابعاد زیادی دارد که بسیاری از آنها به دلیل رعایت شأن این فرد و خانواده وی گفته نشده است. نجابت نظام در صیانت از آبروی افراد همراه با صبر است. فریب نارسانه بی‌بی سی را نخورید!

 کاربری با نام «ایلجان»:
نیکا شاکرمی رو اول بازداشت کردن، بعد بهش تجاوز کردن، بعد کشتنش و بعد چندساعت بعد از این ماجرا‌ها مادرش ساعت ۱۱:۳۰ شب باهاش تلفنی حرف زده؟! بی‌بی‌سی به صورت مستند بازگشت مردگان رو اثبات کرد. سبحان‌الله!

 علی علیزاده (با اشاره به توییت آذر منصوری):
هیچ خبر غیرمستندی از BBC و اینترنشنال به تنهایی توان ایجاد بحران امنیتی در فضای ایران را ندارد. آنچه اجازه می‌دهد این اخبار بحران‌ساز شوند، تأیید ضمنی، ضریب دادن و مشروعیت بخشیدن به این اخبار توسط نیرو‌های داخلی است. از این منظر، بخشی از اصلاح‌طلبان رسماً مکمل پروژه‌های ایران ستیزانه رسانه‌ای غرب شده‌اند.

محمد رستم‌پور:
از سه نویسنده گزارش بی‌بی‌سی فقط یک نفر شناخته شده است، «برترام هیل». برترام، آوریل سال پیش، جایزه مستند تحقیقی سازمان عفو بین‌الملل را از آن خود کرده است. سازمان عفو بین‌الملل در اتهام‌زنی و پرونده‌سازی علیه ایران، سابقه‌ای طولانی دارد. ‎#نیکا_شاکرمی

 محمد فراهانی:
در سندی که بی‌بی‌سی به نقل از مأموران منتشر کرده آمده که نیکا شاکرمی ساعت ۸:۱۵ شب بازداشت شده، اما مادر نیکا همان موقع در مصاحبه با رادیو فردا گفته بود آخرین بار حدود ساعت ۱۱:۳۰ با نیکا صحبت کرده. چطور نیکا ساعت ۸ بازداشت شده، اما ساعت ۱۱:۳۰ با مادرش تماس داشته؟

منبع: روزنامه جوان

باشگاه خبرنگاران جوان وب‌گردی وبگردی

دیگر خبرها

  • جزئیات هوش مصنوعی آیفون لو رفت!
  • واکنش عباس عبدی به سخنان مهدی نصیری: اصلاح‌طلبی و براندازی دو راهبرد غیر قابل جمع است
  • سامانه آموزشی ترید در بازار ارز دیجیتال مبتنی‌بر هوش مصنوعی طراحی شد
  • هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • واکنش کاربران به دروغ‌های بی‌بی‌سی درباره فوت نیکا شاکرمی
  • واکنش کاربران شبکه‌های اجتماعی به دروغ‌های بی‌بی‌سی درباره فوت نیکا شاکرمی
  • دستیار هوشمند خانگی/ هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • چند ترفند ساده برای آن‌که هوش مصنوعی، اطلاعات شما را ندزدد
  • چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟
  • ویژگی جدیدی که به ChatGPT اضافه شد | روبات هوش مصنوعی به چه چیزی مجهز شد؟