هوش مصنوعی (AI) این پتانسیل را دارد که نقطۀ عطفی برای تمامی فعالیتهای شرکتهای نرمافزاری باشد. نقطۀ عطفی که میتواند همهچیز را تغییر بدهد. اما مثل هر فناوری قدرتمند دیگری، هوش مصنوعی نیز ممکن است مورد سوءاستفاده قرار بگیرد. در این مقاله ابتدا به برخی از روشهایی که شرکتهای نرمافزاری ممکن است از هوش مصنوعی سوءاستفاده کنند اشاره شده است و در ادامه نیز گفته خواهد شد که چگونه باید بیشتر مراقب این سوءاستفادهها باشیم.
ابتدا باید به چند مورد که ممکن است تکنولوژی هوش مصنوعی توسط شرکتهای نرمافزاری مورد سوءاستفاده قرار بگیرد اشاره کنیم و با اشاره به مواردی که در دنیای واقعی رخ داده است یا پتانسیل رخ دادن آن وجود دارد، نشان بدهیم که قضیه جدی است و نیازمند دقت بیشتری از سمت شرکتهای نرمافزاری و کاربران نرمافزارهاست.
۵ راه برای سوءاستفاده از هوش مصنوعی(که امیدواریم بتوانیم مسدودشان کنیم!)
۱-استفادۀ غیراخلاقی از دادههای کاربران:
شرکتهای نرمافزاری میتوانند با استفاده از هوش مصنوعی به روشهای مختلفی از دادههای کاربر سوءاستفاده کنند. بهعنوان مثال، آنها میتوانند از هوش مصنوعی برای جمعآوری و تجزیه و تحلیل دادههای کاربران بدون رضایت یا آگاهی آنها استفاده کنند. این میتواند شامل اطلاعات شخصی مانند نام، آدرس، شماره تلفن و جزئیات کارت اعتباری باشد. پس از جمعآوری دادهها، شرکتها ممکن است از آن برای هدف قرار دادن کاربران با تبلیغات شخصی یا فروش آن به تبلیغکنندگان شخص ثالث بدون اجازۀ کاربر استفاده کنند.
یکی از نمونههای مشهور این موضوع رسوایی کمبریج آنالیتیکا است که در آن یک شرکت مشاوره سیاسی از دادههای بهدستآمده از Facebook برای تأثیرگذاری بر انتخابات ریاستجمهوری آمریکا در سال ۲۰۱۶ استفاده کرد. آنها دادههای میلیونها کاربر را بدون اطلاع یا رضایت آنها جمعآوری کرده بودند و از آن برای ایجاد تبلیغات سیاسی دونالد ترامپ، سوءاستفاده کردند.
۲- سوگیری الگوریتمها:
الگوریتمهای هوش مصنوعی از طریق دادههایی که برای آموزش به آنها داده میشود، میتوانند دچار سوگیری شوند. این امر میتواند منجر به نتایج تبعیضآمیز یا ناعادلانه برای گروههای خاصی از مردم شود. برای مثال، یک سیستم هوش مصنوعی را تصور کنید که از آن برای استخدام استفاده میشود. وقتی این سیستم بر اساس دادههای تاریخی آموزش دیده باشد، بسته به اینکه این دادهها از چه منابعی جمعآوری شده باشند ممکن است باعث تعصباتی سوگیرانه علیه گروههای خاصی از مردم شود.
یکی از نمونههای واقعی این موضوع، ابزار استخدام شرکتAmazon مبتنی بر هوش مصنوعی بود که مشخص شد علیه زنان تعصب دارد. این سیستم بر روی رزومههای ارسالشده به آمازون در یک دورۀ ۱۰ساله آموزش داده شد و ایراد کار اینجا بود که رزومههای قبلی عمدتاً از سمت مردان بود. در نتیجه، این سیستم شانس رزومههایی را که شامل کلماتی مانند «Women» و «Woman» میشد، کاهش داد و نسبت به کلماتی که در این رزومهها استفاده نشده بودند بیقضاوت مانده بود. تا جایی که اگر در دو نمونۀ همسان، در رزومهای از کلمۀ «زن» استفاده میشد، احتمال پذیرش آن کمتر از رزومهای بود که در آن از کلمۀ «اعدام» استفاده شده باشد!
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
۳-اطلاعات نادرست و دستکاری اخبار:
هوش مصنوعی میتواند برای تولید اخبار جعلی یا انتشار اطلاعات نادرست مورد استفاده قرار بگیرد؛ و این موضوع میتواند در راستای دستکاری افکار عمومی بهکار گرفته شود. برای مثال، ویدیوهای Deepfake تولیدشده توسط هوش مصنوعی میتوانند اینطور بهنظر برسند که شخصی کاری را گفته یا انجام داده است که در واقعیت آن را انجام نداده است.
یکی از نمونههای واقعی این موضوع استفاده از دیپفِیک در سیاست است. در سال ۲۰۱۹، ویدیویی از Nancy Pelosi ، رئیس مجلس نمایندگان آمریکا، بهگونهای تنظیم شد که بهنظر برسد که او سخنان خود را انکار میکند. این ویدئو بهطور گستردهای در شبکههای اجتماعی بهاشتراک گذاشته شد و اگرچه در نهایت جعلیبودن آن محرز شد، اما دادهها نشان میدهند که همچنان نیز اعتبار پلوسی بهواسطۀ انتشار آن ویدئوی تقلبی، تحت تأثیر است و از جهات مختلفی لطمه خورده است.
۴-ازدستدادن شغل:
هوش مصنوعی میتواند بسیاری از کارهایی را که قبلاً توسط انسان انجام میشده است بهصورت خودکار انجام دهد و این خبر ترسناکی است. یعنی از زاویۀ دید کارفرماها، این خبر بهظاهر خبر خوبی است در حالی که برای کارگران و کارمندان میتواند یک تهدید جدی محسوب شود. برای مثال، رباتهای گفتگوی مبتنی بر هوش مصنوعی میتوانند درخواستهای خدمات مشتری را مدیریت کنند و نیاز به نمایندگان خدمات مشتری انسانی را کاهش دهند و در نتیجه کسانی که در این حوزه مشغول به فعالیت هستند، با خطر ازدستدادن شغل خود مواجه خواهند شد.
نمونههای واقعی این موضوع در همین چندماهی که از رونمایی ربات ChatGPT از شرکت OpenAI گذشته است بهوضوح قابل مشاهده است و حداقل در جامعۀ ایران کاملاً مشهود است که بسیاری از مشاغل در حوزۀ نرمافزار تحت تأثیر ورود این ربات هوش مصنوعی قرار گرفتهاند و چگونگی و میزان استفاده از آن، باعث قطع همکاریهای بسیار زیادی شده است.
۵-عواقب ناخواسته:
ناشناختهبودن همیشه میتواند عواقب ناخواستهای نیز داشته باشد؛ عواقبی که پیشبینی آنها ممکن است دشوار باشد یا فقط در عمل امکان مواجهه با آنها وجود داشته باشد و قابل پیشبینی نباشند. بهعنوان مثال، یک سیستم هوش مصنوعی که برای بهینهسازی برای یک نتیجۀ خاص آموزش دیده است ممکن است بهطور ناخواسته به سایر بخشهای سیستم آسیب برساند. بخشهایی که هیچکس حتی فکرش را هم نمیتواند بکند که ممکن است تحت تأثیر قرار بگیرند.
یکی از نمونههای واقعی این موضوع، استفاده از پلیس پیشبینیکننده در کشور آمریکاست. سیستمهای پلیس پیشبینیکننده از هوش مصنوعی برای تجزیه و تحلیل دادههای مربوط به جرایم و شناسایی مناطقی که احتمال وقوع جنایات در آینده وجود دارد، برای مدیریت استقرار نیروهای پلیس در مناطق تحتنظر خود استفاده میکنند. با این حال، این سیستمها نیز به دلیل تداوم تعصب علیه جوامع خاص مورد انتقاد قرار گرفتهاند و بسیاری از کارشناسان معتقدند که افزایش حضور پلیس در بعضی مناطق منجر به دستگیریهای بیشتر و بالاتر رفتن احتمال جرمانگاری شده است. یعنی اگر پلیسی نبود، شاید خطایی سر میزد و ثبت نمیشد؛ ولی حالا که پلیس هست، تمامی خطاها ثبت میشوند و بهقول معروف ممکن است قصد درست کردن ابرو، به از دست رفتن چشم بیانجامد.
بهطور خلاصه باید گفت که استفادۀ مسئولانه از هوش مصنوعی یک وظیفۀ انسانی بهشمار میرود و ما هرچه در این مورد آگاهی بیشتری داشته باشیم، احتمال اینکه رفتار بهتری انجام بدهیم بیشتر است. شرکتها نیز باید بهصورت یک اصل اخلاقی با این قضیه مواجه شوند و حریم خصوصی کاربران را در اولویت قرار دهند، از تعصب خودداری کنند و در مورد نحوه استفاده از هوش مصنوعی شفاف باشند. علاوهبر این، آنها باید مراقب باشند که از هوش مصنوعی برای اهداف مخرب یا خودکارسازی کارهایی که ممکن است منجر به ازدسترفتن شغل کارگران و کارمندان میشود استفاده نکنند.
چگونه میتوانیم مانع سوءاستفادههای احتمالی از هوش مصنوعی بشویم؟
جلوگیری از سوءاستفادههای احتمالی از هوش مصنوعی (AI) مستلزم رویکردی چندوجهی است؛ رویکردی که باید از سوی دولتها، شرکتها و افراد اتخاذ شده و بهکار بسته شود. در ادامه به برخی از اقداماتی که می توانیم برای جلوگیری از سوءاستفاده از تکنولوژی هوش مصنوعی انجام دهیم اشاره خواهد شد:
مقررات دولتی:
دولتها میتوانند مقررات و دستورالعملهایی را برای استفاده از هوش مصنوعی اجرا کنند تا اطمینان حاصل کنند که شرکتها از آن بهطور اخلاقی و مسئولانه استفاده میکنند. برای مثال، مقرراتی میتواند وضع شود تا اطمینان حاصل شود که شرکتها در مورد نحوۀ جمعآوری و استفاده از دادههای کاربران شفاف هستند و از الگوریتمهای مغرضانه و سوگیرانه استفاده نمیکنند.
استانداردهای اخلاقی:
شرکتها میتوانند استانداردهای اخلاقی را برای استفاده از هوش مصنوعی ایجاد کنند و اطمینان حاصل کنند که کارکنان آنها برای پیروی از آنها آموزش دیدهاند. این میتواند شامل بررسی منظم سیستمهای هوش مصنوعی کارکنان باشد تا اطمینان حاصل شود که آنها مغرضانه نیستند و به شیوهای مسئولانه از آنها استفاده میشود.
آموزش کاربران:
افراد میتوانند خود را در مورد خطرات مرتبط با هوش مصنوعی آموزش دهند و یاد بگیرند که چگونه از حریم خصوصی خود بهصورت آنلاین محافظت کنند. این آموزش میتواند شامل درک نحوۀ جمعآوری و استفاده از دادههای آنها و دقت در مورد اشتراکگذاری آنلاین آنها باشد.
همکاری:
همکاری بین دولت ها، شرکتها و افراد کلیدی برای جلوگیری از سوءاستفاده از هوش مصنوعی است. با همکاری یکدیگر، ذینفعان میتوانند خطرات بالقوه را شناسایی کرده و استراتژیهایی را برای کاهش آنها ایجاد کنند.
راهکارهای فناورانه:
محققان میتوانند راهحلهای فنآورانهای را برای مقابله با برخی از خطرات مرتبط با هوش مصنوعی توسعه دهند؛ راهکارهایی مانند توسعۀ الگوریتمهایی که کمتر مستعد سوگیری هستند و تولید ابزارهایی برای تشخیص ویدیوهای Deepfake.
در مجموع توقف سوءاستفاده از هوش مصنوعی نیازمند تلاش هماهنگ دولتها، شرکتها، افراد و محققان است. تلاش هماهنگی که با اجرای مقررات، ایجاد استانداردهای اخلاقی، آموزش کاربران و توسعۀ راهکارهای فناورانه، میتواند به جلوگیری از سوءاستفادههای احتمالی از هوش مصنوعی کمک کند و به ما این اطمینان را بدهد که این فناوری قدرتمند قرار است بهشیوهای مسئولانه و اخلاقی بهکار گرفته شود.