loading

سوءاستفاده از هوش مصنوعی توسط شرکت‌های نرم افزاری؛ از ما چه کاری بر می‌آید؟

نویسنده: mohammad
اردیبهشت ۱۹, ۱۴۰۲
3
مقدمه

هوش مصنوعی (AI) این پتانسیل را دارد که نقطۀ عطفی برای  تمامی فعالیت‌های شرکت‌های نرم‌افزاری باشد. نقطۀ عطفی که می‌تواند همه‌چیز را تغییر بدهد. اما مثل هر فناوری قدرتمند دیگری، هوش مصنوعی نیز ممکن است  مورد سوءاستفاده قرار بگیرد. در این مقاله ابتدا به برخی از روش‌هایی که شرکت‌های نرم‌افزاری ممکن است از هوش مصنوعی […]

سوءاستفاده از هوش مصنوعی توسط شرکت‌های نرم افزاری؛ از ما چه کاری بر می‌آید؟ - برید

هوش مصنوعی (AI) این پتانسیل را دارد که نقطۀ عطفی برای  تمامی فعالیت‌های شرکت‌های نرم‌افزاری باشد. نقطۀ عطفی که می‌تواند همه‌چیز را تغییر بدهد. اما مثل هر فناوری قدرتمند دیگری، هوش مصنوعی نیز ممکن است  مورد سوءاستفاده قرار بگیرد. در این مقاله ابتدا به برخی از روش‌هایی که شرکت‌های نرم‌افزاری ممکن است از هوش مصنوعی سوء‌استفاده کنند اشاره شده است و در ادامه نیز گفته خواهد شد که چگونه باید بیشتر مراقب این سوءاستفاده‌ها باشیم.

 

 

ابتدا باید به چند مورد که ممکن است تکنولوژی هوش مصنوعی توسط شرکت‌های نرم‌افزاری مورد سوءاستفاده قرار بگیرد اشاره کنیم و با اشاره به مواردی که در دنیای واقعی رخ داده است یا پتانسیل رخ دادن آن وجود دارد، نشان بدهیم که قضیه جدی است و نیازمند دقت بیشتری از سمت شرکت‌های نرم‌افزاری و کاربران نرم‌افزارهاست.

۵ راه برای سوء‌استفاده از هوش مصنوعی(که امیدواریم بتوانیم مسدودشان کنیم!)

۱-استفادۀ غیراخلاقی از داده‌های کاربران:

شرکت‌های نرم‌افزاری می‌توانند با استفاده از هوش مصنوعی به روش‌های مختلفی از داده‌های کاربر سوءاستفاده کنند. به‌عنوان مثال، آنها می‌توانند از هوش مصنوعی برای جمع‌آوری و تجزیه و تحلیل داده‌های کاربران بدون رضایت یا آگاهی آنها استفاده کنند. این می‌تواند شامل اطلاعات شخصی مانند نام، آدرس، شماره تلفن و جزئیات کارت اعتباری باشد. پس از جمع‌آوری داده‌ها، شرکت‌ها ممکن است از آن برای هدف قرار دادن کاربران با تبلیغات شخصی یا فروش آن به تبلیغ‌کنندگان شخص ثالث بدون اجازۀ کاربر استفاده کنند.

یکی از نمونه‌های مشهور این موضوع رسوایی کمبریج آنالیتیکا است که در آن یک شرکت مشاوره سیاسی از داده‌های به‌دست‌آمده از Facebook برای تأثیرگذاری بر انتخابات ریاست‌جمهوری آمریکا در سال ۲۰۱۶ استفاده کرد. آنها داده‌های میلیونها کاربر را بدون اطلاع یا رضایت آنها جمع‌آوری کرده بودند و از آن برای ایجاد تبلیغات سیاسی دونالد ترامپ، سوءاستفاده کردند.

۲- سوگیری الگوریتم‌ها:

الگوریتم‌های هوش مصنوعی از طریق داده‌هایی که برای آموزش به آنها داده می‌شود، می‌توانند دچار سوگیری شوند. این امر می‌تواند منجر به نتایج تبعیض‌آمیز یا ناعادلانه برای گروه‌های خاصی از مردم شود. برای مثال، یک سیستم هوش مصنوعی را تصور کنید که از آن برای استخدام استفاده می‌شود. وقتی این سیستم بر اساس داده‌های تاریخی آموزش دیده باشد، بسته به اینکه این داده‌ها از چه منابعی جمع‌آوری شده باشند ممکن است باعث تعصباتی سوگیرانه علیه گروه‌های خاصی از مردم شود.

یکی از نمونه‌های واقعی این موضوع، ابزار استخدام شرکتAmazon  مبتنی بر هوش مصنوعی بود که مشخص شد علیه زنان تعصب دارد. این سیستم بر روی رزومه‌های ارسال‌شده به آمازون در یک دورۀ ۱۰ساله آموزش داده شد و ایراد کار اینجا بود که رزومه‌های قبلی عمدتاً از سمت مردان بود. در نتیجه، این سیستم شانس رزومه‌هایی را که شامل کلماتی مانند «Women» و «Woman» می‌شد، کاهش داد و نسبت به کلماتی که در این رزومه‌ها استفاده نشده بودند بی‌قضاوت مانده بود. تا جایی که اگر در دو نمونۀ همسان، در رزومه‌ای از کلمۀ «زن» استفاده می‌شد، احتمال پذیرش آن کمتر از رزومه‌ای بود که در آن از کلمۀ «اعدام» استفاده شده باشد!

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

 

۳-اطلاعات نادرست و دستکاری اخبار:

هوش مصنوعی می‌تواند برای تولید اخبار جعلی یا انتشار اطلاعات نادرست مورد استفاده قرار بگیرد؛ و این موضوع می‌تواند در راستای دستکاری افکار عمومی به‌کار گرفته شود. برای مثال، ویدیوهای Deepfake تولیدشده توسط هوش مصنوعی می‌توانند اینطور به‌نظر برسند که شخصی کاری را گفته یا انجام داده است که در واقعیت آن را انجام نداده است.

یکی از نمونه‌های واقعی این موضوع استفاده از دیپ‌فِیک در سیاست است. در سال ۲۰۱۹، ویدیویی از Nancy Pelosi ، رئیس مجلس نمایندگان آمریکا، به‌گونه‌ای تنظیم شد که به‌نظر برسد که او سخنان خود را انکار می‌کند. این ویدئو به‌طور گسترده‌ای در شبکه‌های اجتماعی به‌اشتراک گذاشته شد و اگرچه در نهایت جعلی‌بودن آن محرز شد، اما داده‌ها نشان می‌دهند که همچنان نیز اعتبار پلوسی به‌واسطۀ انتشار آن ویدئوی تقلبی، تحت تأثیر است و از جهات مختلفی لطمه خورده است.

۴-ازدست‌دادن شغل:

هوش مصنوعی می‌تواند بسیاری از کارهایی را که قبلاً توسط انسان انجام می‌شده است به‌صورت خودکار انجام دهد و این خبر ترسناکی است. یعنی از زاویۀ دید کارفرماها، این خبر به‌ظاهر خبر خوبی است در حالی که برای کارگران و کارمندان می‌تواند یک تهدید جدی محسوب شود. برای مثال، ربات‌های گفتگوی مبتنی بر هوش مصنوعی می‌توانند درخواست‌های خدمات مشتری را مدیریت کنند و نیاز به نمایندگان خدمات مشتری انسانی را کاهش دهند و در نتیجه کسانی که در این حوزه مشغول به فعالیت هستند، با خطر ازدست‌دادن شغل خود مواجه خواهند شد.

نمونه‌های واقعی این موضوع در همین چندماهی که از رونمایی ربات ChatGPT از شرکت OpenAI گذشته است به‌وضوح قابل مشاهده است و حداقل در جامعۀ ایران کاملاً مشهود است که بسیاری از مشاغل در حوزۀ نرم‌افزار تحت تأثیر ورود این ربات هوش مصنوعی قرار گرفته‌اند و چگونگی و میزان استفاده از آن، باعث قطع همکاری‌های بسیار زیادی شده است.

۵-عواقب ناخواسته:

ناشناخته‌بودن همیشه می‌تواند عواقب ناخواسته‌ای نیز داشته باشد؛ عواقبی که پیش‌بینی آنها ممکن است دشوار باشد یا فقط در عمل امکان مواجهه با آنها وجود داشته باشد و قابل پیش‌بینی نباشند. به‌عنوان مثال، یک سیستم هوش مصنوعی که برای بهینه‌سازی برای یک نتیجۀ خاص آموزش دیده است ممکن است به‌طور ناخواسته به سایر بخش‌های سیستم آسیب برساند. بخش‌هایی که هیچکس حتی فکرش را هم نمی‌تواند بکند که ممکن است تحت تأثیر قرار بگیرند.

یکی از نمونه‌های واقعی این موضوع، استفاده از پلیس پیش‌بینی‌کننده در کشور آمریکاست. سیستم‌های پلیس پیش‌بینی‌کننده از هوش مصنوعی برای تجزیه و تحلیل داده‌های مربوط به جرایم و شناسایی مناطقی که احتمال وقوع جنایات در آینده وجود دارد، برای مدیریت استقرار نیروهای پلیس در مناطق تحت‌نظر خود استفاده می‌کنند. با این حال، این سیستم‌ها نیز به دلیل تداوم تعصب علیه جوامع خاص مورد انتقاد قرار گرفته‌اند و بسیاری از کارشناسان معتقدند که افزایش حضور پلیس در بعضی مناطق منجر به دستگیری‌های بیشتر و بالاتر رفتن احتمال جرم‌انگاری شده است. یعنی اگر پلیسی نبود، شاید خطایی سر می‌زد و ثبت نمی‌شد؛ ولی حالا که پلیس هست، تمامی خطاها ثبت می‌شوند و به‌قول معروف ممکن است قصد درست کردن ابرو، به از دست رفتن چشم بیانجامد.

 

به‌طور خلاصه باید گفت که استفادۀ مسئولانه  از هوش مصنوعی یک وظیفۀ انسانی به‌شمار می‌رود و ما هرچه در این مورد آگاهی بیشتری داشته باشیم، احتمال اینکه رفتار بهتری انجام بدهیم بیشتر است. شرکت‌ها نیز باید به‌صورت یک اصل اخلاقی با این قضیه مواجه شوند و حریم خصوصی کاربران را در اولویت قرار دهند، از تعصب خودداری کنند و در مورد نحوه استفاده از هوش مصنوعی شفاف باشند. علاوه‌بر این، آنها باید مراقب باشند که از هوش مصنوعی برای اهداف مخرب یا خودکارسازی کارهایی که ممکن است منجر به ازدست‌رفتن شغل کارگران و کارمندان می‌شود استفاده نکنند.

 

چگونه می‌توانیم مانع سوءاستفاده‌های احتمالی از هوش مصنوعی بشویم؟

جلوگیری از سوءاستفاده‌های احتمالی از هوش مصنوعی (AI) مستلزم رویکردی چندوجهی است؛ رویکردی که باید از سوی دولت‌ها، شرکت‌ها و افراد اتخاذ شده و به‌کار بسته شود. در ادامه به برخی از اقداماتی که می توانیم برای جلوگیری از سوءاستفاده از تکنولوژی هوش مصنوعی انجام دهیم اشاره خواهد شد:

مقررات دولتی:

دولت‌ها می‌توانند مقررات و دستورالعمل‌هایی را برای استفاده از هوش مصنوعی اجرا کنند تا اطمینان حاصل کنند که شرکت‌ها از آن به‌طور اخلاقی و مسئولانه استفاده می‌کنند. برای مثال، مقرراتی می‌تواند وضع شود تا اطمینان حاصل شود که شرکت‌ها در مورد نحوۀ جمع‌آوری و استفاده از داده‌های کاربران شفاف هستند و از الگوریتم‌های مغرضانه  و سوگیرانه استفاده نمی‌کنند.

استانداردهای اخلاقی:

شرکت‌ها می‌توانند استانداردهای اخلاقی را برای استفاده از هوش مصنوعی ایجاد کنند و اطمینان حاصل کنند که کارکنان آنها برای پیروی از آنها آموزش دیده‌اند. این می‌تواند شامل بررسی منظم سیستم‌های هوش مصنوعی کارکنان باشد تا اطمینان حاصل شود که آنها مغرضانه نیستند و به شیوه‌ای مسئولانه از آنها استفاده می‌شود.

 

آموزش کاربران:

افراد می‌توانند خود را در مورد خطرات مرتبط با هوش مصنوعی آموزش دهند و یاد بگیرند که چگونه از حریم خصوصی خود به‌صورت آنلاین محافظت کنند. این آموزش می‌تواند شامل درک نحوۀ جمع‌آوری و استفاده از داده‌های آنها و دقت در مورد اشتراک‌گذاری آنلاین آنها باشد.

همکاری:

همکاری بین دولت ها، شرکت‌ها و افراد کلیدی برای جلوگیری از سوءاستفاده از هوش مصنوعی است. با همکاری یکدیگر، ذینفعان می‌توانند خطرات بالقوه را شناسایی کرده و استراتژی‌هایی را برای کاهش آنها ایجاد کنند.

راهکارهای فناورانه:

محققان می‌توانند راه‌حل‌های فن‌آورانه‌ای را برای مقابله با برخی از خطرات مرتبط با هوش مصنوعی توسعه دهند؛ راهکارهایی مانند توسعۀ الگوریتم‌هایی که کمتر مستعد سوگیری هستند و تولید ابزارهایی برای تشخیص ویدیوهای Deepfake.

 

در مجموع توقف سوءاستفاده از هوش مصنوعی نیازمند تلاش هماهنگ دولت‌ها، شرکت‌ها، افراد و محققان است. تلاش هماهنگی که با اجرای مقررات، ایجاد استانداردهای اخلاقی، آموزش کاربران و توسعۀ راهکار‌های فناورانه، می‌تواند به جلوگیری از سوءاستفاده‌های احتمالی از هوش مصنوعی کمک کند و به ما این اطمینان را بدهد که این فناوری قدرتمند قرار است به‌شیوه‌ای مسئولانه و اخلاقی به‌کار گرفته شود.

 

دانلود