در دوره ای که ما زندگی میکنیم شاید کسی فکرش رو هم نمیکرد که هوش مصنوعی به پیشرفتگی و فراگیری امروز برسه، واقعاً دوره عجیبیه، از “چت جی پی تی” که همه چی رو میدونه تا “میدجرنی” که هر عکسی رو تولید میکنه، فقط کافیه سوال بپرسی یا ایده بدی تا با دنیایی از اطلاعات کامل و به روز و خلق تصاویر شگفت انگیز که از دست کمتر گرافیستی بر میاد روبرو بشی! اما قطعاً مقابل این همه خدماتی که ازشون استفاده میکنیم خطرات هوش مصنوعی هم مطرحه. توی این مقاله به خطرات هوش مصنوعی می پردازیم.
عنوان های این مقاله
چرا نسخه رایگان میدجرنی مسدود شد؟
قبل از مسدود شدن نسخه رایگان “میدجرنی“، عکس های فوق العاده نزدیک به واقعیت و با جزییات بالا با موضوعات مختلف در سطح وب منتشر و وایرال شد، مثل دستگیری دونالد ترامپ توسط پلیس آمریکا، درگیری مکرون رئیس جمهور فرانسه با معترضان، یا تیپ و استایل عجیب پاپ رهبرمسیحیای کاتولیگ جهان و عکس های متفرقه دیگه با افراد شاخص در موقعیت های عجیب و غریب. تصاویری که هوش از سر هر بیننده ای میبره! و در واقع نمیشه هیچ مرزی بین واقعیت و غیر واقعی بودن آنها متصور شد. اما داستان به همین جا ختم نمیشه و خطرات هوش مصنوعی نمود پیدا میکنه.
تمامی این عکس ها فیک وغیر واقعی بودن و ساخته نسخه پنج میدجرنی! اما مشخصاً این عکس ها به دلیل زرد بودن و مشهوریت این افراد خیلی سریع وایرال میشن و به دلیل جزییات و کیفیت بالای این عکس ها برای عموم مردم قابل باورن هستن و این یعنی خود دردسر، همون بحث خطرات هوش مصنوعی.
بعد از این ماجراها بود که خبر مسدود شدن نسخه رایگان هوش مصنوعی “میدجرنی” تو سایت های مختلف پیچید و خطرات هوش مصنوعی روی واقعی خودشو نشون دارد. متوالی بودن انتشار اون عکسها و مسدود شدن نسخه رایگان “میدجرنی” این نتیجه رو میرسوند که به دلیل سوء استفاده از این ابزار هوش مصنوعی و منتشر شدن این عکس ها، نسخه رایگان این پلتفرم هوش مصنوعی بسته شده.
اما این برداشت کاملاً غلط بود و مدیر این شرکت طی مصاحبه با یکی از سایت های معتبر این شایعه رو تکذیب کرد و گفت: در واقع افرادی که با “میدجرنی” نسخه 5 کار میکنن قطعاً مشترکین میدجرنی هستن. یعنی افرادی که اشتراک “میدجرنی” رو قبلاً خریدن. و اصولاً افراد عادی به این ورژن دسترسی نداشتن.
در ادامه صحبت ها مشخص شد که محدود شدن نسخه رایگان “میدجرنی” به علت ساخت اکانت های بسیار زیاد یکبار مصرف به دست چینی ها بوده، یعنی انقدر اکانت برای استفاده از این هوش مصنوعی ساخته شده که زیر ساخت و پردازنده های گرافیکی برای جوابگویی به این حجم از تقاضا وجود نداشته و همین دلیل باعث مسدود شدن نسخه رایگان “میدجرنی” شده.
خطرات هوش مصنوعی تو زمینه تولید عکس
تولید عکسها با استفاده از هوش مصنوعی، بهویژه از طریق تکنیکهایی مثل یادگیری عمیق و شبکهها و تکنولوژی هایی که برای تمرین دادن این نوع هوش مصنوعی ها به کار گرفته میشه علاوه بر مزایای فوق العاده ای که داره، میتونه تهدیداتی رو هم ایجاد کنه و اون روی سکه خطرات هوش مصنوعی باشه. در ادامه به چند تا از خطرات هوش مصنوعی میپردازیم.
در واقع شاخص ترین خطر یا تهدید، استفاده نادرست از تصاویر تولید شده توسط هوش مصنوعیه. عکس های تولید شده توسط هوش مصنوعی می تونن برای اهداف مخرب مثل ایجاد هویت جعلی یا انتشار اطلاعات نادرست استفاده بشه. اکثر اوقات تشخیص این تصاویر از عکس های واقعی کار سخت یا در بعضی از موارد غیر ممکن هست، و باعث میشه راه افرادی که نیت مخرب تشویش افکار عمومی یا قصد کلاهبرداری دارن را آسون تر کنه.
مورد بعدی خطرات هوش مصنوعی، نقض حریم خصوصیه، از عکسهای تولید شده توسط هوش مصنوعی میشه برای ایجاد عکس های واقعی از افراد در موقعیت یا حالت هایی استفاده کرد که هرگز راضی به استفاده از تصویرشون در اون حالت و موقعیت خاص نبودن. این کار میتونه منجر به نقض جدی حریم خصوصی افراد بشه، به خصوص اگر از این تصاویر برای مقاصد یا اهداف بدی استفاده بشه.
انتشار اطلاعات نادرست یکی دیگه از خطرات هوش مصنوعی هست. از عکس های تولید شده توسط هوش مصنوعی میشه برای ایجاد و انتشار اطلاعات غلط، به خصوص در زمینه رسانه های اجتماعی استفاده کرد. از این تصاویر میشه برای ایجاد پروفایل های جعلی در شبکه های اجتماعی یا افزایش اعتبار برای انتشار اخبار جعلی استفاده کرد.
یکی از ترسناک ترین و مهم ترین خطرات هوش مصنوعی تهدیدات امنیتی میتونه باشه. عکسهای تولید شده توسط هوش مصنوعی رو میشه برای دور زدن سیستمهای امنیتی متکی به تشخیص چهره استفاده کرد که این کار میتونه تهدیدی برای امنیت ملی یا بعضی از زیرساختهای حیاتی یک جامعه باشه.
مهم است که به طور فعالانه با این تهدیدها از طریق توسعه اخلاقی و استقرار عکسهای تولید شده توسط هوش مصنوعی و همچنین نظارت و مقررات مستمر مقابله کنیم. که این شامل توسعه روشهایی برای شناسایی و جلوگیری از سوء استفاده از عکسهای تولید شده توسط هوش مصنوعی، حصول اطمینان از متنوع بودن دادههای مورد استفاده برای آموزش این سیستمها و اجرای سیاستهایی برای محافظت از حقوق حریم خصوصی افراد است. علاوه بر این، آموزش مردم در مورد خطرات احتمالی مرتبط با عکسهای تولید شده توسط هوش مصنوعی و ترویج استفاده مسئولانه از این فناوری بسیار مهم است.
تقابل دولت ها با خطرات هوش مصنوعی
احتمالا شما هم خبر محدودیت “چت جی پی تی” رو در کشور ایتالیا شنیدید، خبر بزرگی بود. خطرات هوش مصنوعی حالا دیگه یقه دولت ها و حکومت ها رو هم گرفته. دولتها در سراسر جهان به طور فزایندهای نیاز به تنظیم مقررات توسعه و استفاده از هوش مصنوعی برای اطمینان از ایمن بودن، قابل اعتماد و همسو بودن این تکنولوژی با ارزشهای اجتماعی خودشون دارن. در اینجا چند نمونه از محدودیت هایی که دولت ها ممکنه بر هوش مصنوعی اعمال کنن تا از خطرات هوش مصنوعی جلوگیری کنن رو ذکر میکنیم.
استانداردهای ایمنی : دولتها میتونن الزام کنن که سیستمهای هوش مصنوعی قبل از اینکه در برنامههای کاربردی حیاتی مثل مراقبتهای بهداشتی، حملونقل و دفاع به کار گرفته بشن، استانداردهای ایمنی و قابلیت اطمینان خاصی رو رعایت کنن. این بحث میتونه اطمینان کاملی ایجاد کنه که سیستم های هوش مصنوعی قابل اعتماداند و خطری برای زندگی انسان ها ندارن.
مقررات حفظ حریم خصوصی و امنیتی: دولت ها میتونن برای جلوگیری از خطرات هوش مصنوعی مقرراتی رو برای محافظت از حریم خصوصی و داده های شخصی افراد در برابر دسترسی یا استفاده غیرمجاز توسط سیستم های هوش مصنوعی وضع کنن. برای مثال، ممکنه از شرکتها بخوان قبل از جمعآوری یا استفاده از دادههای شخصی، رضایت صریح افراد را دریافت کنن.
محدود کردن ویژگی های کاربردی خاص: دولتها میتونن برای جلوگیری از خطرات هوش مصنوعی استفاده از هوش مصنوعی رو در برنامههای خاصی محدود کنن، به ویژه برنامههایی که خطری برای ایمنی یا امنیت انسان دارن. به عنوان مثال، دولت ها ممکنه استفاده از هوش مصنوعی رو تو سلاح های خودمختار ممنوع کنن یا استفاده از فناوری تشخیص چهره توسط مجریان قانون رو محدود کنن.
الزامات پاسخگویی و شفافیت: دولت ها میتونن از سازمان هایی که از هوش مصنوعی استفاده می کنند بخوان در مورد فرآیندهای تصمیم گیری خودشون شفاف باشن و در قبال نتایج سیستم های هوش مصنوعی خود پاسخگو باشن. به عنوان مثال، دولت ها ممکنه از سازمان ها بخوان که توضیحاتی رو برای تصمیمات اتخاذ شده توسط سیستم های هوش مصنوعی ارائه کنن، یا مکانیزم هایی رو برای افراد ایجاد کنند تا تصمیمات اتخاذ شده توسط سیستم های هوش مصنوعی را که ممکن است بر آنها تأثیر منفی گذاشته است، به چالش بکشند.
خطرات کلی و اساسی هوش مصنوعی برای انسان ها
طی توضیحات بالا در مورد خطرات هوش مصنوعی در زمینه تولید عکس و راهکار ها و روش تقابل دولت ها با هوش مصنوعی صحبت کردیم اما در ادامه این نوشتار در مورد پنج مورد از بالقوه ترین و اساسی ترین این خطرات صحبت میکنیم.
جابجایی و از دست دادن شغل: شاید بشه گفت از مهمترین خطرات هوش مصنوعی برای جوامع انسانی، پتانسیل جایگزینی تعداد قابل توجهی از مشاغلی که در حال حاضر توسط انسان انجام میشه و سپردن اون به هوش مصنوعی میتونه منجر به بیکاری و مشکلات اقتصادی برای افراد آسیب دیده در صنایع مختلف بشه.
تعصب و تبعیض: اگر سیستمهای هوش مصنوعی برای دادههای مغرضانه یا متعصبانه آموزش دیده باشن، یا تعصبات انسانی رو داخل الگوریتمهای خودشون بکار ببرن یا درخدمات دهی خودشون این عوامل رو لحاظ کنن، میتونه منجر به رفتار ناعادلانه با افراد بر اساس نژاد، جنسیت یا ویژگی های دیگه بشه. تحقیقات و سیاستهایی که روی توسعه الگوریتمهایی که منصفانه و بیطرفانه هستند و همچنین ارتقای تنوع و گنجوندن اون ها که در توسعه هوش مصنوعی متمرکز هست، میتونه به کاهش خطرات هوش مصنوعی کمک کنه.
سلاح های خودمختار و اتوماتیک: یکی از مهم ترین خطرات هوش مصنوعی، نگرانی در مورد توسعه سلاح های خودمختار و اتوماتیک هست، که می تونن در مورد مکان و زمان حمله بدون دخالت انسان تصمیم گیری کنن. این نگرانیهای اخلاقی در مورد استفاده از هوش مصنوعی در زمینههای نظامی و احتمال عواقب ناخواسته ایجاد میشه. تحقیقات و سیاستهایی که روی ایجاد هنجارها و مقررات بینالمللی در مورد استفاده از سلاحهای خودمختار و همینطور ترویج شفافیت و مسئولیتپذیری در تحقیق و توسعه هوش مصنوعی بخصوص صنایع نظامی متمرکز هست، میتونه به کاهش رفع این تهدید کمک کنه.
حریم خصوصی و امنیت: خطرات هوش مصنوعی با فراگیرتر شدن هوش مصنوعی قطعا بیشتر میشه، یکی از نگرانی ها و بحث های داغی که که در حوزه خطرات هوش صنوعی وجود داره نگرانی در مورد حفظ حریم خصوصی و امنیت اطلاعات شخصی هست. سیستمهای هوش مصنوعی میتونن حجم وسیعی از دادهها رو در مورد افراد جمعآوری و تجزیه و تحلیل کنن، که این قضیه میتونه برای اهداف مختلفی از جمله تبلیغات هدفمند، نظارت و حتی سرقت هویت استفاده بشه. تحقیقات و سیاستهایی که روی توسعه چارچوبهای امنیتی و حریم خصوصی قوی برای سیستمهای هوش مصنوعی و همچنین ترویج شفافیت و کنترل کاربر بر دادههای شخصی تمرکز دارند، میتونه به کاهش این تهدید کمک بکنه.
خطر وجودی: برخی از کارشناسان نگرانی هایی رو در مورد پتانسیل اَبرهوشمند شدن هوش مصنوعی و ایجاد یک تهدیدِ وجودی برای بشریت مطرح می کنن. این سناریو، عدم اطمینان از همسویی سیستم های پیشرفته هوش مصنوعی با ارزش ها و اهداف انسانی هست. تحقیقات و سیاست هایی که بر توسعه هوش مصنوعی ایمن و مفید و همچنین ایجاد چارچوب های حاکمیتی برای تحقیق و توسعه هوش مصنوعی پیشرفته تمرکز دارند، میتونن به کاهش این تهدید و خطرات هوش مصنوعی کمک کنن.
جمع بندی
شاید بتونیم بگیم هوش مصنوعی یه تیغ دو لبه ست! مثل خیلی از اخطراعات بشر که هم در جهت صلح آمیز و هم در جهت جنگ افروزی کار برد دارن، استفاده از هوش مصنوعی هم نیاز به فرهنگ سازی و آموزش داره. به طور کلی، ایجاد ساز و کار مناسب برای بهره گیری از هوش مصنوعی قطعاً ضروری هست.
ایجاد محدودیتهایی برای هوش مصنوعی تا حصول اطمینان لازم به جهت اینکه استفاده از اون به شیوهای مسئولانه و اخلاقی توسعه پیدا کنه و استفاده بشه، نقش مهم و کلیدی در ایجاد سدی مناسب برای خطرات هوش مصنوعی داره. قطعاً دولتها نقش مهمی در ایجاد و وضع سیاستها و مقرراتی دارن که استفاده ایمن و قابل اعتماد از هوش مصنوعی را ترویج کنن و در عین حال نوآوری و رشد اقتصادی را نیز ارتقا بدن. با همکاری مشترک با صنعت، دانشگاه و جامعه مدنی، دولت ها میتونن اطمینان حاصل کنند که هوش مصنوعی برای کل جامعه مفید هست.
2 پاسخ
سلام وقتتون بخیر
من دوره کسب درآمد از هوش مصنوعی با موبایل رو خریداری کردم و نمیتونم برای پشتیبانی شما تیکت ارسال کنم
و به یک مشکل خوردم، چطور میتونم با شما ارتباط بگیرم و مشکل رو حل کنم؟
با تشکر
سلام عزیزم واتساپ این شماره پیام بده 09301646580
عالی بود رامون جان