• فناوری
  • سرگرمی
همچنین در ناتیلوس بخوانید


مراقب باشید؛ هوش مصنوعی ChatGPT حالا می‌تواند رسیدهای جعلی بسازد


دستگاهی که هوا را فقط با قطرات آب تصفیه می‌کند
چرا الکترون به داخل هسته سقوط نمی کند؟
جدید ترین زمر یا کد تقلب بازی GTA3 برای PS2
چرا حرم های امامان و امامزادگان تجملاتی و هستند
پارک گورستان کوپلی: داستان یک تغییر از گذشته به حال
وب سایت داینامیک یا وب سایت پویا چیست ؟
خودروی یک میلیاردی که نمی‌توانید سوار آن شوید!
علت بن بست سیاسی و اقتصادی در حکومت اسلامی
آیا استفاده از محصولات آرایشی باعث آسیب به پوست می‌شود؟
چگونه ریمل ضد آب را به راحتی پاک کنیم؟
چگونه با خیانت در زندگی مشترک روبرو شویم؟
چگونه سفر هوایی راحت‌تری داشته باشیم؟ راهنمایی برای مسافران
چه اعمالی موجب کاهش فشار و عذاب قبر می شود ؟
علائم خرابی سنسور MAP و نحوه تشخیص آن ها چیست؟
آیا می توان نماز شب را کوتاه و آسان خواند ؟
مدل گردنبند لاریت: آزادی در اوج زیبایی
محصولات پارس خودرو گران شد
پشت پرده مذاکرات وین / در چه صورتی ایران به کره شمالی تبدیل می شود؟
متن های زیبا برای تبریک سال نو
10 گوشی پرفروش ایران در سال 1403 بازار
مراقب باشید؛ هوش مصنوعی ChatGPT حالا می‌تواند رسیدهای جعلی بسازد
Download Search mbnews118556 پنجشنبه 14 فروردين 1404 بازدید: 153
مراقب باشید؛ هوش مصنوعی ChatGPT حالا می‌تواند رسیدهای جعلی بسازد

مراقب باشید؛ هوش مصنوعی ChatGPT حالا می‌تواند رسیدهای جعلی بسازد

گوشی موبایل,گوشی سامسونگ,گوشی نوکیا,گوشی سونی,گوشی سونی اریکسون,گوشی htc,گوشی ال جی,تبلت,تبلت سامسونگ,تلویزیون lcd,تلویزیون led,تلویزیون پلاسما,آیفون,اپل,آی پد,دوربین عکاسی,آندروید,لپ تاپ,لپ تاپ دل




این سؤال مطرح است که چرا چت‌ جی‌ پی‌ تی (ChatGPT) اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت جدید تولید تصویر با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر؟

دیجیاتو در گزارشی به نگرانی‌ها درباره سوءاستفاده از فناوری چت‌جی‌پی‌تی برای تولید رسید جعلی پرداخت  و نوشت: اخیراً چت‌جی‌پی‌تی یک قابلیت تولید تصویر جدید را به‌عنوان بخشی از مدل 4o معرفی کرده است که در تولید متن داخل تصاویر بسیار خوب عمل می‌کند و می‌تواند رسیدهای جعلی طبیعی بسازد. افراد مختلف از این قابلیت برای ایجاد رسیدهای جعلی رستوران استفاده می‌کنند که می‌تواند ابزاری دیگر به مجموعه گسترده فناوری‌های دیپ‌فیک هوش مصنوعی اضافه کند که توسط کلاهبرداران به کار می‌رود.

 

«دیدی داس»، سرمایه‌گذار و کاربر فعال شبکه‌های اجتماعی، در شبکه اجتماعی ایکس، تصویری از یک رسید جعلی مربوط به یک استیک‌هاوس واقعی در سان‌فرانسیسکو منتشر کرد که به گفته او، با مدل 4o ایجاد شده است.

 

کاربران دیگر نیز موفق به بازتولید نتایج مشابه شدند، از جمله رسیدهایی که لکه‌های غذا یا نوشیدنی داشتند تا واقعی‌تر به نظر برسند.

 

در فرانسه، یک کاربر در لینکدین تصویری از یک رسید جعلی چروک‌دار منتشر کرد که با هوش مصنوعی برای یک رستوران زنجیره‌ای ایجاد شده بود که بسیار طبیعی به نظر می‌رسد.

 

کاملاً واضح است که امکان ایجاد رسیدهای جعلی به‌سادگی، فرصت‌های بزرگی را برای کلاهبرداری فراهم می‌کند. تصور استفاده از این فناوری توسط افراد سودجو برای دریافت بازپرداخت هزینه‌های جعلی چندان دشوار نیست.

 

به گفته «تایا کریستینسون»، سخنگوی OpenAI، تمامی تصاویری که توسط چت‌جی‌پی‌تی ایجاد می‌شوند، شامل متادیتایی هستند که نشان می‌دهد این تصاویر با استفاده از این ابزار ساخته شده‌اند. او تأکید کرد که اوپن‌ای‌آی در صورت مشاهده نقض سیاست‌های استفاده از سوی کاربران، اقدامات لازم را انجام می‌دهد و همواره از بازخوردها و موارد استفاده واقعی برای بهبود عملکرد و افزایش امنیت مدل‌های خود بهره می‌برد.

 

بااین‌حال، این سؤال مطرح است که چرا ChatGPT اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر.

 

کریستینسون می‌گوید هدف اوپن‌ای‌آی ارائه بیشترین میزان آزادی خلاقانه به کاربران است. او همچنین اشاره کرد که رسیدهای جعلی ساخته‌شده با هوش مصنوعی لزوماً برای مقاصد متقلبانه استفاده نمی‌شوند، بلکه می‌توانند در زمینه‌های مختلفی مانند آموزش سواد مالی، خلق آثار هنری اوریجینال، طراحی تبلیغات و سایر کاربردهای خلاقانه مورد استفاده قرار گیرند.

 

 


لطفا نظر خود را درباره مطلبی که خوانده‌اید، بنویسید...
نام شریف شما :
آدرس ایمیل:
مطلب :
کپی از مطالب این سایت تنها با ذکر فاتحه رایگان است
مجله تفریحی و سرگرمی ناتیلوس   Natilos.ir © 2024 - 2015
V 9.8