هوش مصنوعي روزبهروز به پيشرفت حيرتانگيز خود ادامه ميدهد. مطالعه جدیدی که در مجموعه مقالات آکادمی ملی علوم ایالات متحده آمریکا منتشر شده است، نشان میدهد که انسانهای واقعی میتوانند به راحتی با استفاده از فناوری هوش مصنوعی به کنولوژی ساخت چهره دست یافتهاند.
جزئیات و پیچیدگی های خارق العاده ی آن باعث می شود این چهره ها، واقعی تر از افراد حقیقی بنظر برسند. این جزئیات تا حدی طبیعی به نظر میرسد که ممکن است فکر کنید این تصاویر حتی از چهرههای واقعی انسانها واقعیترند. هانی فرید، یکی از نویسندگان این مطالعه، استاد دانشگاه کالیفرنیا، برکلی، میگوید: «ما دریافتیم که نه تنها چهرههای مصنوعی بسیار واقعی هستند، بلکه قابل اعتمادتر از چهرههای واقعی هستند.
به گزارش بک پرس، به نقل از neurosciencenews ، دو پژوهشگر دانشگاه لنکستر دریافتهاند که یک شبکه به نام StyleGAN2 میتواند چهرههایی بسازد که تشخیص آنها از چهرههای واقعی غیرممکن است. در واقع، بر اساس آزمایشهایی که شرکتکنندگان انجام دادهاند، ظاهرا با استفاده از کنولوژی ساخت چهره با استفاده از هوش مصنوعی، چهره حاصل به نظر مردم واقعیتر از چهرههای حقیقی افراد بودهاند. این شبکههای هوشمند برخلاف استفاده رایجتر از صورت مردان سفیدپوست در تحقیقات قبلی، بر روی مجموعهای از تصاویر واقعی که چهرههای سیاهپوست، آسیای شرقی، آسیای جنوبی و سفیدپوست مردان و زنان را نشان میدهند، آموزش دیدند.
چهره حاصل از هوش مصنوعی و کنولوژی ساخت چهره ، بسیار واقعیتر از چهرههای حقیقی
پژوهشگران از داوطلبان خود خواستند تا بابت موثق بودن هر چهره از یک تا هفت به آن نمره بدهند و یک کمترین نمره بود. نتیجه این بود که چهرههای مصنوعی ۷ درصد بیشتر از چهرههای عادی توانستند اعتماد افراد را جلب کنند.
یافتههای این تحقیق در زمینه استفاده از فناوریهای یادگیری ماشینی در تکنولوژی ساخت چهره با هوش مصنوعی در ساخت چهرههای مصنوعی پیچیدگیهای زیادی را ایجاد میکند و به نگرانیها در مورد دسترسی به فناوری میافزاید که امکان ایجاد تصاویر ثابت فریبنده را برای تقریباً هر کسی ممکن میسازد.
مدیر مؤسس آزمایشگاه هوش بصری و تجزیه و تحلیل چند رسانه ای در دانشگاه کالیفرنیای جنوبی، که در این مطالعه شرکت نداشت، می گوید: نگرانی دیگر این است که چنین یافته هایی این تصور را ایجاد کند که دیپ فیک ها کاملاً غیرقابل شناسایی می شوند. او نگران است که دانشمندان از تلاش برای توسعه اقدامات متقابل برای دیپفیکها دست بکشند، اگرچه به نظر او همگام بودن تشخیص آنها با واقعگرایی فزاینده آنها بهعنوان «یک مشکل دیگر پزشکی قانونی» است.
محققان میگویند: «شاید خطرناکترین بخش ماجرا این پیامد باشد که در دنیای دیجیتال بتوان هر تصویر یا ویدیویی را جعل کرد، و به این ترتیب میتوان صحت همه تصاویر و ویدیوهای ناخوشایند یا ناخواسته را زیر سوال برد.»
دکتر سوفی نایتنگیل، از محققان این مطالعه میگوید: «اگر ریسک یک فناوری جدید بیشتر از مزایای آن باشد، آیا همچنان باید دنبالش برویم؟ آیا باید آن را توسعه دهیم و در دسترس همه قرار دهیم؟ …وقتی یک فناوری عرضه شد، دیگر نمیتوانید آن را پس بگیرید، چون مردم دانلودش کردهاند و خیلی دیر شده است.»
سام گرگوری، مدیر استراتژی برنامهها و نوآوری در WITNESS، یک سازمان حقوق بشری که تا حدی بر روشهای تشخیص دیپفیک تمرکز میکند، میگوید: «مکالمهای که در این جامعه تحقیقاتی به اندازه کافی اتفاق نمیافتد این است که چگونه میتوان به طور فعال برای بهبود این ابزارهای تشخیص شروع کرد. او میگوید ساخت ابزارهایی برای تشخیص مهم است زیرا مردم تمایل دارند تواناییهای خود را در تشخیص جعلیها بیش از حد برآورد کنند، و «عموم همیشه باید بفهمند که چه زمانی از آنها به طور مخرب استفاده میشود».
نویسندگان این مطالعه پس از تاکید بر اینکه استفاده های فریبنده از دیپ فیک ها همچنان تهدیدی را به همراه خواهد داشت، برای محافظت از مردم در برابر “جعل های عمیق”، دستورالعمل هایی را برای ایجاد و توزیع تصاویر سنتز شده پیشنهاد کردند. اقدامات حفاظتی می تواند شامل گنجاندن واترمارک های قوی در شبکه های ترکیب تصویر و ویدئو باشد که مکانیزم پایین دستی را برای شناسایی قابل اعتماد فراهم می کند.