انتظار میرود فناوریهای هوش مصنوعی و بلاکچین تاثیر گستردهای بر برخی اهداف مهم اخلاقی و اجتماعی اتحادیه اروپا بگذارد. کمیسیون اروپا در یکی از گزارشهایش درباره هوش مصنوعی بر تاثیر مثبت و بالقوه سیستمهای هوش مصنوعی بر جامعه اروپا تاکید کرده است. اما این کمیسیون درباره تاثیر این فناوریها بر محیطزیست ابراز نگرانی کرده است. برای مثال، سیستمهای هوش مصنوعی باید در طول چرخه حیاتشان و در طول کل زنجیره تامین به دقت تحت نظر قرار گیرند تا دادههای مربوط به مصرف منابع از سوی آنها برای آموزش الگوریتم و ذخیره داده مورد استفاده قرار گیرد.
به گزارش بکپرس، فناوریهای هوش مصنوعی و بلاکچین زندگی روزمره اروپاییها را طوری متحول خواهند کرد که از تصور ما خارج است. شاید هوش مصنوعی بتواند بخش سلامت و بهداشت (تشخیص دقیق، پیشگیری از بیماری) را بهبود دهد، بهرهوری کشاورزی را افزایش دهد، به کاهش آثار تغییرات اقلیمی کمک و امنیت اروپاییها را تقویت کند. انتظار میرود این فناوری حدود 14 درصد مشاغل را به فرایند اتوماسیون اضافه کند و تاثیر عمیقی بر 32 درصد مشاغل دیگر بگذارد. البته فناوریها همراه با مخاطرات بالقوه میآیند؛ مثلاً نقض حریم خصوصی و دنبال کردن اهداف مجرمانه. سایر کاربستهای مناقشهانگیز هوش مصنوعی عبارتاند از: شناسایی و ردیابی افراد، سیستمهای هوش مصنوعی مخفی، رتبهبندی شهروندان بر اساس محاسبات هوش مصنوعی و سیستمهای تسلیحاتی مرگآور.
هوش مصنوعی و بلاکچین
درست است که فناوریهای هوش مصنوعی و بلاکچین زندگی روزمره را دگرگون خواهد کرد اما فناوری باید ابتدا بر طیفی از چالشها غلبه کند. یکی از چالشهای مهم در این زمینه دسترسی محدود هوش مصنوعی به دادههای مفید است. فقدان همکاری بین صاحبان منافع دولتی و خصوصی باعث میشود الگوریتمها از داده محروم شوند. نوآوران برای غلبه بر این محدودیت فنی باید تحقیقاتشان را به صورت اخلاقی و با حفظ شفافیت و مسئولیتپذیری انجام دهند و اعتماد عمومی را جلب کنند تا بتوانند زمینه همرسانی داده را فراهم سازند.
یکی از تحقیقاتی که به تازگی برای پارلمان اتحادیه اروپا انجام گرفته پنج زمینه چالشهای اخلاقی و اجتماعی را در توسعه و راهاندازی هوش مصنوعی شناسایی کرده است. چالش اول به تاثیر هوش مصنوعی بر جامعه مربوط میشود. بازار کار ممکن است در نتیجه عملکرد هوش مصنوعی- اتوماسیون- دگرگون شود. نابرابری، سوگیری و تهدید تروریسم سه تاثیر بالقوه دیگر هوش مصنوعی بر جامعه به شمار میروند. علاوه بر این، حریم خصوصی، حقوق بشر و کرامت انسان ممکن است از سوی کاربستهای هوش مصنوعی نقض و خدشهدار شوند. چهار چالش بعدی عبارتاند از: تاثیر فناوریهای هوش مصنوعی و بلاکچین بر دستگاه قضایی، تاثیر بر روانشناسی انسان، تاثیر بر محیطزیست و کره زمین، تاثیر بر نظام مالی و تاثیر بر اعتماد (انصاف، شفافیت، مسئولیتپذیری و کنترل).
متاورس چیست ؟ “زندگی در دنیای دیجیتال”
در رسانه تخصصی شهر هوشمند فناوریهای نوین بکپرس بخوانید
کمیسیون اروپا در تلاش برای افزایش قابلیت اطمینان هوش مصنوعی در اروپا، مسائل اخلاقی و اجتماعی مربوط به آن را در یک راهنمای کلی منتشر کرده است. این راهنما یک سند زنده است و در طول زمان مورد بازنگری قرار خواهد گرفت تا با سیر تکامل فناوری، جامعه و دانش سازگار باقی بماند. محیط هوش مصنوعی از مجموعه گستردهای از فناوریها، زمینه کاربردی و صاحبان منافع تشکیل میشود و راهنمای کمیسیون اروپا به این اکوسیستم کمک میکند تا از توسعه هوش مصنوعی قابل اطمینان پشتیبانی کنند. کمیسیون سه مولفه ضروری برای هوش مصنوعی قابل اطمینان تعریف میکند. این سه مولفه باید در کل چرخه زندگی سیستم حضور داشته باشند:
- باید قانونی باشد و با همه قوانین و مقررات مرتبط سازگار باشد.
- باید اخلاقی باشد و پایبندی به اصول و ارزشهای اخلاقی را تضمین کند.
- باید از نظر فنی و اجتماعی نیرومند باشد زیرا سیستم هوش مصنوعی ممکن است آسیب ناخواسته وارد کند.
کمیسیون اروپا بر اساس این سه مولفه اهداف زیر را دنبال میکند:
شناسایی و توصیف اصول اخلاقی که برای تضمین هوش مصنوعی اخلاقی و نیرومند ضروری تلقی میشوند
تبدیل اصول اخلاقی نیازمندهای کلیدیای که سیستمهای هوش مصنوعی باید آنها را در کل چرخه حیاتشان رعایت کنند.
تعیین فهرست ارزیابی قابلیت اطمینان هوش مصنوعی برای عملیاتی کردن نیازمندیها.
بر اساس مباحث فوق، چارچوب کلی توسعه هوش مصنوعی قابل اطمینان در سه مرحله تشریح میشود. مرحله اول از مبانی فناوریهای هوش مصنوعی و بلاکچین قابل اطمینان تشکیل میشود. چهار اصل اخلاقی در این مرحله عبارتاند از: احترام هوش مصنوعی به استقلال انسان، جلوگیری از آسیب، عدالت و توضیحپذیری. مرحله دوم با تحقق هوش مصنوعی قابل اطمینان همراه است. نیازمندیهای مهم این مرحله عبارتاند از: عاملیت انسان و نظارت بر هوش مصنوعی، قدرت فنی و ایمنی، حریم خصوصی و حکمرانی داده، شفافیت، تنوع، عدم تبعیض، عدالت، رفاه اجتماعی و محیطزیستی و مسئولیتپذیری. سرانجام، مرحله سوم چارچوب مذکور به ارزیابی هوش مصنوعی قابل اطمینان مربوط میشود. این مرحله به کاربست مد نظر هوش مصنوعی بستگی دارد و بر اساس زمینه باید به صورت مستمر تکرار شود.
از طرف دیگر، کمیسیون اتحادیه اروپا به منظور تبدیل اروپا به مرکز جهانی هوش مصنوعی قابل اطمینان در آوریل 2021 پیشنهادهایی برای قوانین و اقدامات جدید با تمرکز بر رویکرد انسانمحور در قبال هوش مصنوعی ارائه کرد. این پیشنهادها شامل اولین چارچوب حقوقی درباره هوش مصنوعی شامل برنامه هماهنگی با دولتهای عضو برای تضمین ایمنی و حقوق بنیادین مردم و کسبوکارها میشود. همچنین بر تقویت کاربستهای مفید هوش مصنوعی و سرمایهگذاری و نوآوری در سراسر اتحادیه اروپا نیز تاکید شده است. قوانین جدید درباره ماشینها بر مسائل ایمنی تمرکز خواهند کرد تا اعتماد به نسل جدید و بسیار متنوع محصولات افزایش یابد.
برخی کشورها و سازمانهای دیگر نیز اصول و راهنماهایی درباره اخلاقیات هوش مصنوعی منتشر کردهاند؛ مانند استرالیا، سنگاپور و ژاپن. در حالت کلی، همه کشورها تا اندازهای اصول مشترک دارند و ارزشهای مشابهی را اشاعه میدهند. ۱۰ ارزش مشترک شناسایی شدهاند که میتوانند راهنمای اصول باشند. ارزش اول، انسانمحور بودن است: سیستمهای هوش مصنوعی باید طوری طراحی شوند که فراگیر باشند و نیازها و ارزشهای افرادی را که با آنها تعامل میکنند محقق کنند. ارزش دوم، کاهش آثار ریسکها و افزایش مزایاست. سامانههای هوش مصنوعی باید برای تامین منافع کاربران نهایی طراحی و راهاندازی شوند و آثار منفی ناخواسته بر طرفهای ثالث باید مهار شوند.
ارزش سوم انصاف است که حکم میکند حکمرانی و تدابیر فنی در راستای شناسایی و کاهش آثار مخاطرات ناشی از سوگیریهای ناعادلانه عمل کنند؛ به ویژه در مواردی که مردم با پیامدهای این مخاطرات روبهرو میشوند. قابل فهم بودن به عنوان ارزش چهارم به این معنی است که سیستمهای هوش مصنوعی برای همه انسانها قابل فهم باشند و فرایند تصمیمگیری هوش مصنوعی باید شفاف باشد. ارزش پنجم بر ایمنی و قابلیت اطمینان هوش مصنوعی تاکید میکند. سیستمهای هوش مصنوعی باید بتوانند مخاطرات قابل پیشبینی را تعدیل کنند و مورد آزمون قرار بگیرند تا عملکرد آنها طبق برنامه تضمین شود. ارزش ششم حکم میکند که مسئولیتپذیری در چرخه حیات هوش مصنوعی تضمین شود و ساختارهای حکمرانی مناسب برای مرحله طراحی و سازوکار کاهش آثار مخاطرات پدید آیند.
مطالب مرتبط: “تلاش برای جذب مخاطب با ساخت فراجهان متاورس در فیسبوک”
ریسکها همیشه به زمینه حساس هستند و صاحبان منافع باید تشویق شوند تا فنون مدیریت ریسک را برای زمینههای خاص مد نظر توسعه دهند. این مساله در قالب ارزش هفتم- آگاهی از مخاطرات- مطرح میشود. داشتن صاحبان منافع متعدد به عنوان ارزش هشتم باعث میشود کاهش آثار ریسکهای مربوط به توسعه، راهاندازی و کاربرد هوش مصنوعی در دستور کار طرفهای مختلف قرار گیرد. حریم خصوصی و امنیت، دو سویه ارزش نهم را تشکیل میدهند. بنابراین سیستمهای هوش مصنوعی باید امن باشند و کاربران را قادر سازند تصمیمهای آگاهانه درباره استفاده از اطلاعات خصوصی بگیرند. سرانجام، اشاعه نوآوری به عنوان ارزش دهم به این معنی است که دولت در نقش نوآور کلیدی در حوزه هوش مصنوعی سیاستهایی را دنبال میکند که در نتیجه اجرای آنها جریان دادهها، خدمات ارزشافزوده مبتنی بر داده، دسترسی به دادههای دولتی غیرحساس، تحقیق و توسعه و تربیت نیروی کار تضمین شوند. این فهرست به همراه راهنمای کمیسیون اروپا میتوانند نقطه شروعی برای سرمایهگذاری و تصمیمگیری در زمینه هوش مصنوعی قابل اطمینان باشند.
نگرانیهای اخلاقی درباره هوش مصنوعی اهمیت روزافزونی در مباحث عمومی پیدا کردهاند اما فناوریهای هوش مصنوعی و بلاکچین تا این اندازه مورد توجه قرار نگرفتهاند. تحقیقات اولیه نشان میدهد برخی مسائل اخلاقی بالقوه درباره بلاکچین وجود دارند که باید مورد توجه قرار بگیرند؛ برای مثال، حفاظت از دادههای ذخیرهشده به وسیله فناوری بلاکچین، ایجاد تعادل بین مزایای بلاکچین و میزان مصرف انرژی توسط آن، اشاعه شفافیت و تعیین مقررات حول محور قراردادهای هوشمند، رعایت مسائل ضد انحصار مانند رفتار ضد رقابتی ناشی از پیدایش یک بلاکچین کنترلگر انحصارطلب در زمینهای خاص و جلوگیری از وقوع کلاهبرداری و سایر جرائم و بزهکاریهای مبتنی بر ناشناسی بلاکچین.
تنش بین فناوریهای هوش مصنوعی و بلاکچین و مقررات عمومی حفاظت از دادهها یکی از نگرانیها در زمینه حفاظت از داده است. باید به دو مساله کلیدی اشاره کرد. اول، مقررات عمومی حفاظت از دادهها (اتحادیه اروپا) بر اساس این انگاره زیربنایی تعیین شدهاند که هر واحد داده خصوصی به حداقل یک فرد حقیقی یا حقوقی مربوط میشود و این فرد میتواند از طریق قانون محافظت از دادهها در اتحادیه اروپا از حقوقش دفاع کند. بلاکچین بر حسب ماهیتش به دنبال تمرکززدایی است و بنابراین یک کنترلگر داده جایگاهی در آن ندارد. دوم، مسئولان تنظیم مقررات عمومی حفاظت از دادهها چنین فرض کردهاند که دادهها را میتوان بر حسب ضرورت تغییر داد یا حذف کرد تا شروط حقوقی محقق شوند اما بلاکچین طوری طراحی شده است که یکپارچگی دادهها را تضمین میکند. بنابراین، تغییر یا حذف دادههای ثبتشده در بلاکچین امکانپذیر نیست.
مساله دیگری که در زمینه کاربستهای هوش مصنوعی مطرح میشود ریسک روشهای جدید جمعآوری، کاربرد و فروش دادههای کاربران است. یک چارچوب سطح بالا و متشکل از سه مولفه برای الگوهای متداول هوش مصنوعی پیشنهاد شده است. مولفه اول به جمعآوری دادهها مربوط میشود. الگوهای هوش مصنوعی با استفاده از مخازن عظیم داده آموزش داده میشوند. جمعآوری داده در این مرحله ممکن است به شهروندان آسیب برساند. برای مثال، محلی که داده از آن جمعآوری میشود (مانند تشخیص چهره یا حسگرهای شهر هوشمند) و محصولات خاصی که برای جمعآوری مورد استفاده قرار میگیرند ممکن است منافع و حقوق شهروندان را نقض کنند.
استفاده از دادهها برای بهبود محصولات و خدمات، مولفه دوم چهارچوب پیشنهادی برای تحقق هوش مصنوعی قابل اطمینان در زمینه حریم خصوصی دادههاست. دادهها معمولاً برای آموزش الگوهای هوش مصنوعی و بهبود محصولات و خدمات شرکت مورد استفاده قرار میگیرند. این کار از طریق الگوریتمهایی انجام میپذیرد که دانش مد نظر (مثلاً قیمت یا محصولات) یا رفتار گروهی از افراد را از دادهها استنباط میکند. استفاده از دانش دادهبنیان مولفه سوم چارچوب را تشکیل میدهد. این نوع دانش معمولاً برای ارزشآفرینی برای شرکت مورد استفاده قرار میگیرد.
در حالت کلی، هوش مصنوعی جامعه و اقتصاد را متحول خواهد کرد. جهت این تحول به عملکرد توسعهدهندگان، سیاستگذاران و کاربران بستگی دارد. اگر گفتوگویی بین همه صاحبان منافع برقرار شود تا این فناوری تحت نظارت و مقررات قرار گیرد، توسعه پایدار امکانپذیر خواهد شد و خلأهای احتمالی در حوزه شفافیت، ایمنی و استانداردهای اخلاقی برطرف خواهند شد.