loader image

بیشتر بخوانید

هوش مصنوعی و تکنولوژی ساخت چهره

هوش مصنوعي روزبه‌روز به پيشرفت حيرت‌انگيز خود ادامه مي‌دهد. مطالعه جدیدی که در مجموعه مقالات آکادمی ملی علوم ایالات متحده آمریکا منتشر شده است، نشان می‌دهد که انسان‌های واقعی می‌توانند به راحتی با استفاده از فناوری هوش مصنوعی به کنولوژی ساخت چهره دست یافته‌اند.

جزئیات و پیچیدگی های خارق العاده ی آن باعث می شود این چهره ها، واقعی‌ تر از افراد حقیقی بنظر برسند. این جزئیات تا حدی طبیعی به نظر می‌رسد که ممکن است فکر کنید این تصاویر حتی از چهره‌های واقعی انسان‌ها واقعی‌ترند. هانی فرید، یکی از نویسندگان این مطالعه، استاد دانشگاه کالیفرنیا، برکلی، می‌گوید: «ما دریافتیم که نه تنها چهره‌های مصنوعی بسیار واقعی هستند، بلکه قابل اعتمادتر از چهره‌های واقعی هستند.

به گزارش بک پرس، به نقل از neurosciencenews ، دو پژوهشگر دانشگاه لنکستر دریافته‌اند که یک شبکه به نام StyleGAN2 می‌تواند چهره‌هایی بسازد که تشخیص آن‌ها از چهره‌های واقعی غیرممکن است. در واقع، بر اساس آزمایش‌هایی که شرکت‌کنندگان انجام داده‌اند، ظاهرا با استفاده از کنولوژی ساخت چهره با استفاده از  هوش مصنوعی، چهره حاصل به نظر مردم واقعی‌تر از چهره‌های حقیقی افراد بوده‌اند. این شبکه‌های هوشمند برخلاف استفاده رایج‌تر از صورت مردان سفیدپوست در تحقیقات قبلی،  بر روی مجموعه‌ای از تصاویر واقعی که چهره‌های سیاه‌پوست، آسیای شرقی، آسیای جنوبی و سفیدپوست مردان و زنان را نشان می‌دهند، آموزش دیدند.

چهره حاصل از هوش مصنوعی و کنولوژی ساخت چهره ، بسیار واقعی‌تر از چهره‌های حقیقی

پژوهشگران از داوطلبان خود خواستند تا بابت موثق بودن هر چهره از یک تا هفت به آن نمره بدهند و یک کمترین نمره بود. نتیجه این بود که چهره‌های مصنوعی ۷ درصد بیشتر از چهره‌های عادی توانستند اعتماد افراد را جلب کنند.

یافته‌های این تحقیق در زمینه استفاده از فناوری‌های یادگیری ماشینی در تکنولوژی ساخت چهره با هوش مصنوعی در ساخت چهره‌های مصنوعی پیچیدگی‌های زیادی را ایجاد می‌کند و به نگرانی‌ها در مورد دسترسی به فناوری می‌افزاید که امکان ایجاد تصاویر ثابت فریبنده را برای تقریباً هر کسی ممکن می‌سازد.

مدیر مؤسس آزمایشگاه هوش بصری و تجزیه و تحلیل چند رسانه ای در دانشگاه کالیفرنیای جنوبی، که در این مطالعه شرکت نداشت، می گوید: نگرانی دیگر این است که چنین یافته هایی این تصور را ایجاد کند که دیپ فیک ها کاملاً غیرقابل شناسایی می شوند.  او نگران است که دانشمندان از تلاش برای توسعه اقدامات متقابل برای دیپ‌فیک‌ها دست بکشند، اگرچه به نظر او همگام بودن تشخیص آنها با واقع‌گرایی فزاینده آن‌ها به‌عنوان «یک مشکل دیگر پزشکی قانونی» است.

محققان می‌گویند: «شاید خطرناک‌ترین بخش ماجرا این پیامد باشد که در دنیای دیجیتال بتوان هر تصویر یا ویدیویی را جعل کرد، و به این ترتیب می‌توان صحت همه تصاویر و ویدیوهای ناخوشایند یا ناخواسته را زیر سوال برد.»

دکتر سوفی نایتنگیل، از محققان این مطالعه می‌گوید: «اگر ریسک یک فناوری جدید بیشتر از مزایای آن باشد، آیا همچنان باید دنبالش برویم؟ آیا باید آن را توسعه دهیم و در دسترس همه قرار دهیم؟ …وقتی یک فناوری عرضه شد، دیگر نمی‌توانید آن را پس بگیرید، چون مردم دانلودش کرده‌اند و خیلی دیر شده است.»

سام گرگوری، مدیر استراتژی برنامه‌ها و نوآوری در WITNESS، یک سازمان حقوق بشری که تا حدی بر روش‌های تشخیص دیپ‌فیک تمرکز می‌کند، می‌گوید: «مکالمه‌ای که در این جامعه تحقیقاتی به اندازه کافی اتفاق نمی‌افتد این است که چگونه می‌توان به طور فعال برای بهبود این ابزارهای تشخیص شروع کرد.  او می‌گوید ساخت ابزارهایی برای تشخیص مهم است زیرا مردم تمایل دارند توانایی‌های خود را در تشخیص جعلی‌ها بیش از حد برآورد کنند، و «عموم همیشه باید بفهمند که چه زمانی از آنها به طور مخرب استفاده می‌شود».

نویسندگان این مطالعه پس از تاکید بر اینکه استفاده های فریبنده از دیپ فیک ها همچنان تهدیدی را به همراه خواهد داشت، برای محافظت از مردم در برابر “جعل های عمیق”، دستورالعمل هایی را برای ایجاد و توزیع تصاویر سنتز شده پیشنهاد کردند. اقدامات حفاظتی می تواند شامل گنجاندن واترمارک های قوی در شبکه های ترکیب تصویر و ویدئو باشد که مکانیزم پایین دستی را برای شناسایی قابل اعتماد فراهم می کند.

 

طراحان خلاقی و فرهنگ پیشرو در زبان فارسی ایجاد کرد. در این صورت می توان امید داشت که تمام و دشواری موجود در ارائه راهکارها و شرایط سخت تایپ به پایان رسد.

دیدگاهتان را بنویسید