loader image

بیشتر بخوانید

صفحه اصلی > بلاک چین و فناوری هوشمند و هوش مصنوعی : هوش مصنوعی و بلاک‌چین در چارچوب اخلاق و قانون

هوش مصنوعی و بلاک‌چین در چارچوب اخلاق و قانون

انتظار می‌رود فناوری‌های هوش مصنوعی و بلاک‌چین تاثیر گسترده‌ای بر برخی اهداف مهم اخلاقی و اجتماعی اتحادیه اروپا بگذارد. کمیسیون اروپا در یکی از گزارش‌هایش درباره هوش مصنوعی بر تاثیر مثبت و بالقوه سیستم‌های هوش مصنوعی بر جامعه اروپا تاکید کرده است. اما این کمیسیون درباره تاثیر این فناوری‌ها بر محیط‌زیست ابراز نگرانی کرده است. برای مثال، سیستم‌های هوش مصنوعی باید در طول چرخه حیات‌شان و در طول کل زنجیره تامین به‌ دقت تحت نظر قرار گیرند تا داده‌های مربوط به مصرف منابع از سوی آنها برای آموزش الگوریتم و ذخیره داده مورد استفاده قرار گیرد.

به گزارش بک‌پرس، فناوری‌های هوش مصنوعی و بلاک‌چین زندگی روزمره اروپایی‌ها را طوری متحول خواهند کرد که از تصور ما خارج است. شاید هوش مصنوعی بتواند بخش سلامت و بهداشت (تشخیص دقیق، پیشگیری از بیماری) را بهبود دهد، بهره‌وری کشاورزی را افزایش دهد، به کاهش آثار تغییرات اقلیمی کمک و امنیت اروپایی‌ها را تقویت کند. انتظار می‌رود این فناوری حدود 14 درصد مشاغل را به فرایند اتوماسیون اضافه کند و تاثیر عمیقی بر 32 درصد مشاغل دیگر بگذارد. البته فناوری‌ها همراه با مخاطرات بالقوه می‌آیند؛ مثلاً نقض حریم خصوصی و دنبال کردن اهداف مجرمانه. سایر کاربست‌های مناقشه‌انگیز هوش مصنوعی عبارت‌اند از: شناسایی و ردیابی افراد، سیستم‌های هوش مصنوعی مخفی، رتبه‌بندی شهروندان بر اساس محاسبات هوش مصنوعی و سیستم‌های تسلیحاتی مرگ‌آور.

هوش مصنوعی و بلاک‌چین

درست است که فناوری‌های هوش مصنوعی و بلاک‌چین زندگی روزمره را دگرگون خواهد کرد اما فناوری باید ابتدا بر طیفی از چالش‌ها غلبه کند. یکی از چالش‌های مهم در این زمینه دسترسی محدود هوش مصنوعی به داده‌های مفید است. فقدان همکاری بین صاحبان منافع دولتی و خصوصی باعث می‌شود الگوریتم‌ها از داده محروم شوند. نوآوران برای غلبه بر این محدودیت فنی باید تحقیقات‌شان را به‌ صورت اخلاقی و با حفظ شفافیت و مسئولیت‌پذیری انجام دهند و اعتماد عمومی را جلب کنند تا بتوانند زمینه همرسانی داده را فراهم سازند.

یکی از تحقیقاتی که به ‌تازگی برای پارلمان اتحادیه اروپا انجام گرفته پنج زمینه چالش‌های اخلاقی و اجتماعی را در توسعه و راه‌اندازی هوش مصنوعی شناسایی کرده است. چالش اول به تاثیر هوش مصنوعی بر جامعه مربوط می‌شود. بازار کار ممکن است در نتیجه عملکرد هوش مصنوعی- اتوماسیون- دگرگون شود. نابرابری، سوگیری و تهدید تروریسم سه تاثیر بالقوه دیگر هوش مصنوعی بر جامعه به شمار می‌روند. علاوه‌ بر این، حریم خصوصی، حقوق بشر و کرامت انسان ممکن است از سوی کاربست‌های هوش مصنوعی نقض و خدشه‌دار شوند. چهار چالش بعدی عبارت‌اند از: تاثیر فناوری‌های هوش مصنوعی و بلاک‌چین بر دستگاه قضایی، تاثیر بر روانشناسی انسان، تاثیر بر محیط‌زیست و کره زمین، تاثیر بر نظام مالی و تاثیر بر اعتماد (انصاف، شفافیت، مسئولیت‌پذیری و کنترل).

متاورس چیست ؟ “زندگی در دنیای دیجیتال”

در رسانه تخصصی شهر هوشمند  فناوری‌های نوین بک‌پرس بخوانید

کمیسیون اروپا در تلاش برای افزایش قابلیت اطمینان هوش مصنوعی در اروپا، مسائل اخلاقی و اجتماعی مربوط به آن را در یک راهنمای کلی منتشر کرده است. این راهنما یک سند زنده است و در طول زمان مورد بازنگری قرار خواهد گرفت تا با سیر تکامل فناوری، جامعه و دانش سازگار باقی بماند. محیط هوش مصنوعی از مجموعه گسترده‌ای از فناوری‌ها، زمینه کاربردی و صاحبان منافع تشکیل می‌شود و راهنمای کمیسیون اروپا به این اکوسیستم کمک می‌کند تا از توسعه هوش مصنوعی قابل‌ اطمینان پشتیبانی کنند. کمیسیون سه مولفه ضروری برای هوش مصنوعی قابل ‌اطمینان تعریف می‌کند. این سه مولفه باید در کل چرخه زندگی سیستم حضور داشته باشند:

  1. باید قانونی باشد و با همه قوانین و مقررات مرتبط سازگار باشد.
  2. باید اخلاقی باشد و پایبندی به اصول و ارزش‌های اخلاقی را تضمین کند.
  3. باید از نظر فنی و اجتماعی نیرومند باشد زیرا سیستم هوش مصنوعی ممکن است آسیب ناخواسته وارد کند.

کمیسیون اروپا بر اساس این سه مولفه اهداف زیر را دنبال می‌کند:

شناسایی و توصیف اصول اخلاقی که برای تضمین هوش مصنوعی اخلاقی و نیرومند ضروری تلقی می‌شوند

تبدیل اصول اخلاقی نیازمندهای کلیدی‌ای که سیستم‌های هوش مصنوعی باید آنها را در کل چرخه حیات‌شان رعایت کنند.

تعیین فهرست ارزیابی قابلیت اطمینان هوش مصنوعی برای عملیاتی کردن نیازمندی‌ها.

بر اساس مباحث فوق، چارچوب کلی توسعه هوش مصنوعی قابل‌ اطمینان در سه مرحله تشریح می‌شود. مرحله اول از مبانی فناوری‌های هوش مصنوعی و بلاک‌چین قابل ‌اطمینان تشکیل می‌شود. چهار اصل اخلاقی در این مرحله عبارت‌اند از: احترام هوش مصنوعی به استقلال انسان، جلوگیری از آسیب، عدالت و توضیح‌پذیری. مرحله دوم با تحقق هوش مصنوعی قابل‌ اطمینان همراه است. نیازمندی‌های مهم این مرحله عبارت‌اند از: عاملیت انسان و نظارت بر هوش مصنوعی، قدرت فنی و ایمنی، حریم خصوصی و حکمرانی داده، شفافیت، تنوع، عدم تبعیض، عدالت، رفاه اجتماعی و محیط‌زیستی و مسئولیت‌پذیری. سرانجام، مرحله سوم چارچوب مذکور به ارزیابی هوش مصنوعی قابل‌ اطمینان مربوط می‌شود. این مرحله به کاربست مد نظر هوش مصنوعی بستگی دارد و بر اساس زمینه باید به ‌صورت مستمر تکرار شود.

از طرف دیگر، کمیسیون اتحادیه اروپا به منظور تبدیل اروپا به مرکز جهانی هوش مصنوعی قابل ‌اطمینان در آوریل 2021 پیشنهادهایی برای قوانین و اقدامات جدید با تمرکز بر رویکرد انسان‌محور در قبال هوش مصنوعی ارائه کرد. این پیشنهادها شامل اولین چارچوب حقوقی درباره هوش مصنوعی شامل برنامه هماهنگی با دولت‌های عضو برای تضمین ایمنی و حقوق بنیادین مردم و کسب‌وکارها می‌شود. همچنین بر تقویت کاربست‌های مفید هوش مصنوعی و سرمایه‌گذاری و نوآوری در سراسر اتحادیه اروپا نیز تاکید شده است. قوانین جدید درباره ماشین‌ها بر مسائل ایمنی تمرکز خواهند کرد تا اعتماد به نسل جدید و بسیار متنوع محصولات افزایش یابد.

برخی کشورها و سازمان‌های دیگر نیز اصول و راهنماهایی درباره اخلاقیات هوش مصنوعی منتشر کرده‌اند؛ مانند استرالیا، سنگاپور و ژاپن. در حالت کلی، همه کشورها تا اندازه‌ای اصول مشترک دارند و ارزش‌های مشابهی را اشاعه می‌دهند. ۱۰ ارزش مشترک شناسایی شده‌اند که می‌توانند راهنمای اصول باشند. ارزش اول، انسان‌محور بودن است: سیستم‌های هوش مصنوعی باید طوری طراحی شوند که فراگیر باشند و نیازها و ارزش‌های افرادی را که با آنها تعامل می‌کنند محقق کنند. ارزش دوم، کاهش آثار ریسک‌ها و افزایش مزایاست. سامانه‌های هوش مصنوعی باید برای تامین منافع کاربران نهایی طراحی و راه‌اندازی شوند و آثار منفی ناخواسته بر طرف‌های ثالث باید مهار شوند.

ارزش سوم انصاف است که حکم می‌کند حکمرانی و تدابیر فنی در راستای شناسایی و کاهش آثار مخاطرات ناشی از سوگیری‌های ناعادلانه عمل کنند؛ به ‌ویژه در مواردی که مردم با پیامدهای این مخاطرات روبه‌رو می‌شوند. قابل‌ فهم بودن به‌ عنوان ارزش چهارم به این معنی است که سیستم‌های هوش مصنوعی برای همه انسان‌ها قابل‌ فهم باشند و فرایند تصمیم‌گیری هوش مصنوعی باید شفاف باشد. ارزش پنجم بر ایمنی و قابلیت اطمینان هوش مصنوعی تاکید می‌کند. سیستم‌های هوش مصنوعی باید بتوانند مخاطرات قابل پیش‌بینی را تعدیل کنند و مورد آزمون قرار بگیرند تا عملکرد آنها طبق برنامه تضمین شود. ارزش ششم حکم می‌کند که مسئولیت‌پذیری در چرخه حیات هوش مصنوعی تضمین شود و ساختارهای حکمرانی مناسب برای مرحله طراحی و سازوکار کاهش آثار مخاطرات پدید آیند.

مطالب مرتبط: تلاش برای جذب مخاطب با ساخت فراجهان متاورس در فیسبوک”

ریسک‌ها همیشه به زمینه حساس هستند و صاحبان منافع باید تشویق شوند تا فنون مدیریت ریسک را برای زمینه‌های خاص مد نظر توسعه دهند. این مساله در قالب ارزش هفتم- آگاهی از مخاطرات- مطرح می‌شود. داشتن صاحبان منافع متعدد به ‌عنوان ارزش هشتم باعث می‌شود کاهش آثار ریسک‌های مربوط به توسعه، راه‌اندازی و کاربرد هوش مصنوعی در دستور کار طرف‌های مختلف قرار گیرد. حریم خصوصی و امنیت، دو سویه ارزش نهم را تشکیل می‌دهند. بنابراین سیستم‌های هوش مصنوعی باید امن باشند و کاربران را قادر سازند تصمیم‌های آگاهانه درباره استفاده از اطلاعات خصوصی بگیرند. سرانجام، اشاعه نوآوری به ‌عنوان ارزش دهم به این معنی است که دولت در نقش نوآور کلیدی در حوزه هوش مصنوعی سیاست‌هایی را دنبال می‌کند که در نتیجه اجرای آنها جریان داده‌ها، خدمات ارزش‌افزوده مبتنی بر داده، دسترسی به داده‌های دولتی غیرحساس، تحقیق و توسعه و تربیت نیروی کار تضمین شوند. این فهرست به همراه راهنمای کمیسیون اروپا می‌توانند نقطه شروعی برای سرمایه‌گذاری و تصمیم‌گیری در زمینه هوش مصنوعی قابل ‌اطمینان باشند.

نگرانی‌های اخلاقی درباره هوش مصنوعی اهمیت روزافزونی در مباحث عمومی پیدا کرده‌اند اما فناوری‌های هوش مصنوعی و بلاک‌چین تا این اندازه مورد توجه قرار نگرفته‌اند. تحقیقات اولیه نشان می‌دهد برخی مسائل اخلاقی بالقوه درباره بلاک‌چین وجود دارند که باید مورد توجه قرار بگیرند؛ برای مثال، حفاظت از داده‌های ذخیره‌شده به وسیله فناوری بلاک‌چین، ایجاد تعادل بین مزایای بلاک‌چین و میزان مصرف انرژی توسط آن، اشاعه شفافیت و تعیین مقررات حول محور قراردادهای هوشمند، رعایت مسائل ضد انحصار مانند رفتار ضد رقابتی ناشی از پیدایش یک بلاک‌چین کنترلگر انحصارطلب در زمینه‌ای خاص و جلوگیری از وقوع کلاهبرداری‌ و سایر جرائم و بزهکاری‌های مبتنی بر ناشناسی بلاک‌چین.

تنش بین فناوری‌های هوش مصنوعی و بلاک‌چین و مقررات عمومی حفاظت از داده‌ها یکی از نگرانی‌ها در زمینه حفاظت از داده است. باید به دو مساله کلیدی اشاره کرد. اول، مقررات عمومی حفاظت از داده‌ها (اتحادیه اروپا) بر اساس این انگاره زیربنایی تعیین شده‌اند که هر واحد داده خصوصی به حداقل یک فرد حقیقی یا حقوقی مربوط می‌شود و این فرد می‌تواند از طریق قانون محافظت از داده‌ها در اتحادیه اروپا از حقوقش دفاع کند. بلاک‌چین بر حسب ماهیتش به دنبال تمرکززدایی است و بنابراین یک کنترلگر داده جایگاهی در آن ندارد. دوم، مسئولان تنظیم مقررات عمومی حفاظت از داده‌ها چنین فرض کرده‌اند که داده‌ها را می‌توان بر حسب ضرورت تغییر داد یا حذف کرد تا شروط حقوقی محقق شوند اما بلاک‌چین طوری طراحی شده است که یکپارچگی داده‌ها را تضمین می‌کند. بنابراین، تغییر یا حذف داده‌های ثبت‌شده در بلاک‌چین امکان‌پذیر نیست.

مساله دیگری که در زمینه کاربست‌های هوش مصنوعی مطرح می‌شود ریسک روش‌های جدید جمع‌آوری، کاربرد و فروش داده‌های کاربران است. یک چارچوب سطح بالا و متشکل از سه مولفه برای الگوهای متداول هوش مصنوعی پیشنهاد شده است. مولفه اول به جمع‌آوری داده‌ها مربوط می‌شود. الگوهای هوش مصنوعی با استفاده از مخازن عظیم داده آموزش داده می‌شوند. جمع‌آوری داده در این مرحله ممکن است به شهروندان آسیب برساند. برای مثال، محلی که داده از آن جمع‌آوری می‌شود (مانند تشخیص چهره یا حسگرهای شهر هوشمند) و محصولات خاصی که برای جمع‌آوری مورد استفاده قرار می‌گیرند ممکن است منافع و حقوق شهروندان را نقض کنند.

استفاده از داده‌ها برای بهبود محصولات و خدمات، مولفه دوم چهارچوب پیشنهادی برای تحقق هوش مصنوعی قابل‌ اطمینان در زمینه حریم خصوصی داده‌هاست. داده‌ها معمولاً برای آموزش الگوهای هوش مصنوعی و بهبود محصولات و خدمات شرکت مورد استفاده قرار می‌گیرند. این کار از طریق الگوریتم‌هایی انجام می‌پذیرد که دانش مد نظر (مثلاً قیمت یا محصولات) یا رفتار گروهی از افراد را از داده‌ها استنباط می‌کند. استفاده از دانش داده‌بنیان مولفه سوم چارچوب را تشکیل می‌دهد. این نوع دانش معمولاً برای ارزش‌آفرینی برای شرکت مورد استفاده قرار می‌گیرد. ‌

در حالت کلی، هوش مصنوعی جامعه و اقتصاد را متحول خواهد کرد. جهت این تحول به عملکرد توسعه‌دهندگان، سیاست‌گذاران و کاربران بستگی دارد. اگر گفت‌وگویی بین همه صاحبان منافع برقرار شود تا این فناوری تحت نظارت و مقررات قرار گیرد، توسعه پایدار امکان‌پذیر خواهد شد و خلأهای احتمالی در حوزه شفافیت، ایمنی و استانداردهای اخلاقی برطرف خواهند شد.

طراحان خلاقی و فرهنگ پیشرو در زبان فارسی ایجاد کرد. در این صورت می توان امید داشت که تمام و دشواری موجود در ارائه راهکارها و شرایط سخت تایپ به پایان رسد.

دیدگاهتان را بنویسید