• فناوری
  • سرگرمی
همچنین در ناتیلوس بخوانید


مراقب باشید؛ هوش مصنوعی ChatGPT حالا می‌تواند رسیدهای جعلی بسازد


لیست دامنه هایی که اسم آن را هرگز نشنیده اید نام اختصاصي يا دومين چيست؟
درون آسمان‌خراش پوینت سیتی: دنیایی پر از راز و شگفتی
کشف کرگدن ۳۲ هزار ساله با پوست و پشم سالم در روسیه
خواص فلفل را بدانید | خواص شگفت انگیز فلفل در درمان بیماری ها
خواص فیجوآ برای سلامتی چیست؟
چطور رابطه خوبی با معلم ها داشته باشید؟
دوبوتامین؛ ناجی قلب در لحظات بحرانی
با گوگل Photos حالا عکس‌ها را بعد از ثبت به Ultra HDR ارتقا دهید
همه چیز درباره زمان از ابتدا تا اندازی گیری آن تا عصر حاضر
آیا واقعا آماده ازدواج هستید؟ بررسی نشانه‌های آمادگی
آخرین اخبار از مهلت انتخاب خودروهای وارداتی
پیوند انگاری در سوگیری شناختی چیست/ویژگی تئوری توطئه
برنده نوبل فیزیک ۲۰۲۴: در یک هتل ارزان‌ آماده انجام «MRI» می‌شدم که فهمیدم نوبل فیزیک بردم!
احکام فقهی ربا و حد سود بانکی در مؤسسه ها
شرکت تولی پرس بعد از 57 سال منحل شد داستان شرکت تولی پرس
وضعیت اعراب در عصر جاهلیت: نگاهی به تاریکی پیش از طلوع اسلام
ثروت و ثروتمند از نظر ایلان ماسک
حجم صادرات و واردات روسیه و جایگاه ایران
واکنش وزیر بهداشت به توییت زیباکلام| ۱۴ تیر ۱۴۰۰
آیا امواج رادیویی برای سلامتی مضر هستند؟
مراقب باشید؛ هوش مصنوعی ChatGPT حالا می‌تواند رسیدهای جعلی بسازد
Download Search mbnews118556 پنجشنبه 14 فروردين 1404 بازدید: 166
مراقب باشید؛ هوش مصنوعی ChatGPT حالا می‌تواند رسیدهای جعلی بسازد

مراقب باشید؛ هوش مصنوعی ChatGPT حالا می‌تواند رسیدهای جعلی بسازد

گوشی موبایل,گوشی سامسونگ,گوشی نوکیا,گوشی سونی,گوشی سونی اریکسون,گوشی htc,گوشی ال جی,تبلت,تبلت سامسونگ,تلویزیون lcd,تلویزیون led,تلویزیون پلاسما,آیفون,اپل,آی پد,دوربین عکاسی,آندروید,لپ تاپ,لپ تاپ دل




این سؤال مطرح است که چرا چت‌ جی‌ پی‌ تی (ChatGPT) اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت جدید تولید تصویر با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر؟

دیجیاتو در گزارشی به نگرانی‌ها درباره سوءاستفاده از فناوری چت‌جی‌پی‌تی برای تولید رسید جعلی پرداخت  و نوشت: اخیراً چت‌جی‌پی‌تی یک قابلیت تولید تصویر جدید را به‌عنوان بخشی از مدل 4o معرفی کرده است که در تولید متن داخل تصاویر بسیار خوب عمل می‌کند و می‌تواند رسیدهای جعلی طبیعی بسازد. افراد مختلف از این قابلیت برای ایجاد رسیدهای جعلی رستوران استفاده می‌کنند که می‌تواند ابزاری دیگر به مجموعه گسترده فناوری‌های دیپ‌فیک هوش مصنوعی اضافه کند که توسط کلاهبرداران به کار می‌رود.

 

«دیدی داس»، سرمایه‌گذار و کاربر فعال شبکه‌های اجتماعی، در شبکه اجتماعی ایکس، تصویری از یک رسید جعلی مربوط به یک استیک‌هاوس واقعی در سان‌فرانسیسکو منتشر کرد که به گفته او، با مدل 4o ایجاد شده است.

 

کاربران دیگر نیز موفق به بازتولید نتایج مشابه شدند، از جمله رسیدهایی که لکه‌های غذا یا نوشیدنی داشتند تا واقعی‌تر به نظر برسند.

 

در فرانسه، یک کاربر در لینکدین تصویری از یک رسید جعلی چروک‌دار منتشر کرد که با هوش مصنوعی برای یک رستوران زنجیره‌ای ایجاد شده بود که بسیار طبیعی به نظر می‌رسد.

 

کاملاً واضح است که امکان ایجاد رسیدهای جعلی به‌سادگی، فرصت‌های بزرگی را برای کلاهبرداری فراهم می‌کند. تصور استفاده از این فناوری توسط افراد سودجو برای دریافت بازپرداخت هزینه‌های جعلی چندان دشوار نیست.

 

به گفته «تایا کریستینسون»، سخنگوی OpenAI، تمامی تصاویری که توسط چت‌جی‌پی‌تی ایجاد می‌شوند، شامل متادیتایی هستند که نشان می‌دهد این تصاویر با استفاده از این ابزار ساخته شده‌اند. او تأکید کرد که اوپن‌ای‌آی در صورت مشاهده نقض سیاست‌های استفاده از سوی کاربران، اقدامات لازم را انجام می‌دهد و همواره از بازخوردها و موارد استفاده واقعی برای بهبود عملکرد و افزایش امنیت مدل‌های خود بهره می‌برد.

 

بااین‌حال، این سؤال مطرح است که چرا ChatGPT اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر.

 

کریستینسون می‌گوید هدف اوپن‌ای‌آی ارائه بیشترین میزان آزادی خلاقانه به کاربران است. او همچنین اشاره کرد که رسیدهای جعلی ساخته‌شده با هوش مصنوعی لزوماً برای مقاصد متقلبانه استفاده نمی‌شوند، بلکه می‌توانند در زمینه‌های مختلفی مانند آموزش سواد مالی، خلق آثار هنری اوریجینال، طراحی تبلیغات و سایر کاربردهای خلاقانه مورد استفاده قرار گیرند.

 

 


لطفا نظر خود را درباره مطلبی که خوانده‌اید، بنویسید...
نام شریف شما :
آدرس ایمیل:
مطلب :
کپی از مطالب این سایت تنها با ذکر فاتحه رایگان است
مجله تفریحی و سرگرمی ناتیلوس   Natilos.ir © 2024 - 2015
V 9.8