سه هزار
Advertisement
جدیدترین مطالب
Article Image
فصلنامه «گام سوم» شماره ۱

در این شماره، مقالات متنوعی در موضوعات اقتصاد، آینده مشاغل، آینده‌پژوهی، خانواده، تغییرات اقلیمی و سیاست به همراه بخش‌ها نوشتار، شرح مفصل، گفت‌وگو و پرونده‌ای با عنوان «شک عمیق» چاپ شده است.

Article Image
کاهش هدررفت غذا با اپلیکیشن موبایلی

اگرچه این اپلیکیشن غذای باقی‌مانده‌ی رستوران‌ها را ارزان در اختیار کاربران قرار می‌دهد، اما همچنان ابهاماتی درباره‌ی میزان واقعی کاهش هدررفت و استفاده‌ی تجاری برخی کسب‌وکارها از این سیستم وجود دارد.

Article Image
چالش‌های مدیریت تیم کاری با اعضایی از نسل Z

رهبری موفق تنها به ارائه عالی بستگی ندارد؛ حمایت تیمی و مسئولیت‌پذیری نیز مهم است. در بحبوحه آماده‌سازی برای جلسه‌ای مهم، مخالفت یکی از اعضای تیم می‌تواند تنش ایجاد کند. شد. آیا انگیزه‌های فردی فراتر از مسئولیت‌های کاری هستند؟

Article Image
معلمان باید پتانسیل ChatGPT را بررسی کنند

بسیاری از دانش‌آموزان اکنون از چت‌بات‌های هوش مصنوعی برای انجام تکالیف خود استفاده می‌کنند. معلمان باید نحوه گنجاندن این ابزارها در فرآیند تدریس و یادگیری را مطالعه کنند و در عین حال، خطرات آن را به حداقل برسانند.

...

نویسنده: آرویند نارایانان        مترجم: عباس امیدی        ۲۴ بهمن ۱۴۰۳

سال ۲۰۲۵؛ سوءاستفاده از هوش مصنوعی نگران‌کننده است

خطرات هوش مصنوعی از عملکرد مستقل آن ناشی نمی‌شوند، بلکه از نحوه استفاده انسان‌ها از آن سرچشمه می‌گیرند. مواردی شامل موقعیت‌هایی که هوش مصنوعی به‌ظاهر خوب عمل می‌کند اما بیش‌ازحد به آن اعتماد می‌شود یا مورد سوءاستفاده قرار می‌گیرد.


این مطلب نوشته‌ای است از آرویند نارایانان که در تاریخ ۱۳ دسامبر ۲۰۲۴ با عنوان
Worry About Misuse of AI, Not Superintelligence
در وب‌سایت Wired در مجموعه مقالات «جهان در سال ۲۰۲۵» منتشر شده است.


سم آلتمن، مدیرعامل OpenAI، پیش‌بینی می‌کند که هوش عمومی مصنوعی (AGI)؛ هوشی که در بیشتر وظایف از انسان برتر باشد، در حدود سال‌های ۲۰۲۷ یا ۲۰۲۸ محقق خواهد شد. ایلان ماسک زمان تحقق آن را بین سال‌های ۲۰۲۵ تا ۲۰۲۶ می‌داند و مدعی شده است که بابت خطرات هوش مصنوعی «خواب از چشمانش ربوده شده است.»

اما از همان روزهای نخستین این فناوری، پیش‌بینی‌هایی درباره ظهور قریب‌الوقوع هوش مصنوعی در سطح انسان بیش از ۵۰ سال است که مطرح می‌شوند. این پیش‌بینی‌ها نه‌تنها از نظر زمانی، بلکه از نظر ماهیتی نیز اشتباه بوده‌اند. امروزه می‌دانیم که رویکردهای مشخصی که متخصصان پیشین برای دستیابی به این سطح از هوش مصنوعی در نظر داشتند، ذاتاً قادر به تحقق آن نبودند. به همین ترتیب، با روشن‌تر شدن محدودیت‌های هوش مصنوعی کنونی، اغلب پژوهشگران این حوزه به این نتیجه رسیده‌اند که صرفاً ساخت مدل‌های بزرگ‌تر و قدرتمندتر منجر به شکل‌گیری هوش عمومی مصنوعی نخواهد شد.

البته هوش مصنوعی پیشرفته یک نگرانی بلندمدت است که باید مورد مطالعه پژوهشگران قرار گیرد. اما خطرات هوش مصنوعی در سال ۲۰۲۵، مانند گذشته، ناشی از سوءاستفاده از آن خواهند بود.

این سوءاستفاده‌ها ممکن است ناخواسته باشند، مانند تکیه بیش از حد و ناآگاهانه وکلا بر هوش مصنوعی. برای مثال، پس از انتشار ChatGPT، شماری از وکلا به دلیل ارائه اسناد حقوقی نادرست که توسط هوش مصنوعی تولید شده بودند، جریمه شدند، چراکه ظاهراً از تمایل چت‌بات‌ها به جعل اطلاعات آگاه نبودند. در استان بریتیش کلمبیا، وکیلی به نام «چونگ که» به پرداخت هزینه‌های وکیل طرف مقابل محکوم شد، زیرا در پرونده حقوقی خود از پرونده‌های ساختگی تولیدشده توسط هوش مصنوعی استفاده کرده بود. در نیویورک، دو وکیل به نام‌های استیون شوارتز و پیتر لودوکا به دلیل ارائه استنادهای جعلی ۵۰۰۰ دلار جریمه شدند. در کلرادو، زکریا کرا‌بیل به‌مدت یک سال از وکالت محروم شد، زیرا از پرونده‌های ساختگی تولیدشده توسط ChatGPT استفاده کرده و اشتباه را به یک «کارآموز حقوقی» نسبت داده بود. فهرست این موارد به‌سرعت در حال گسترش است.

سوءاستفاده‌های دیگر اما عامدانه‌اند. در ژانویه ۲۰۲۴، تصاویر غیر اخلاقی جعل‌شده‌ای از تیلور سوئیفت فضای شبکه‌های اجتماعی را پر کردند. این تصاویر با استفاده از ابزار هوش مصنوعی Designer، محصول مایکروسافت، ساخته شده بودند. هرچند این شرکت تدابیری برای جلوگیری از تولید تصاویر افراد واقعی در نظر گرفته بود، اما تغییر جزئی در املای نام سوئیفت برای دور زدن این محدودیت کافی بود. مایکروسافت پس از این ماجرا، این نقص را برطرف کرد. اما ماجرای تیلور سوئیفت تنها نوک کوه یخ است و تصاویر جعلی غیراخلاقی بدون رضایت افراد به‌سرعت در حال گسترش‌اند. بخشی از این روند به دلیل در دسترس بودن ابزارهای متن‌باز برای ساخت چنین محتوایی است. در حال حاضر، قانون‌گذاران در سراسر جهان در تلاش‌اند با تصویب مقررات جدید، با این معضل مقابله کنند، اما اثربخشی این اقدامات هنوز مشخص نیست.

در سال ۲۰۲۵، تشخیص واقعیت از جعل حتی دشوارتر خواهد شد. کیفیت صوت، متن و تصاویر تولیدشده توسط هوش مصنوعی حیرت‌انگیز است و ویدئو نیز به‌زودی به این فهرست اضافه خواهد شد. این مسئله می‌تواند به پدیده‌ای منجر شود که به آن «سود دروغ‌گو» می‌گویند: افراد صاحب قدرت می‌توانند شواهدی را که رفتار نادرستشان را نشان می‌دهد، با این ادعا که جعلی‌اند، رد کنند.

در سال ۲۰۲۳، شرکت تسلا در واکنش به اتهامی مبنی بر اینکه ایلان ماسک در سال ۲۰۱۶ درباره میزان ایمنی سیستم خودران این شرکت اغراق کرده و این امر منجر به تصادف شده است، ادعا کرد که ویدئوی آن زمان ماسک ممکن است یک دیپ‌فیک باشد. در هند، یک سیاستمدار اظهار داشت که فایل‌های صوتی منتشرشده از او که در آن‌ها به فساد در حزبش اذعان می‌کند، دستکاری شده‌اند؛ درحالی‌که حداقل یکی از این فایل‌ها توسط یک رسانه معتبر به‌عنوان صدای واقعی او تأیید شد. در آمریکا، دو متهم در حوادث حمله به کنگره در ۶ ژانویه ادعا کردند که ویدئوهایی که آن‌ها را در صحنه نشان می‌دهند، جعلی هستند. ولی هر دو گناهکار شناخته شدند.

در همین حال، برخی شرکت‌ها از سردرگمی عمومی سوءاستفاده کرده و محصولات بی‌اساس خود را با برچسب «هوش مصنوعی» می‌فروشند. این امر زمانی به‌شدت خطرناک می‌شود که چنین ابزارهایی برای دسته‌بندی افراد و اتخاذ تصمیم‌های مهم درباره آن‌ها به کار گرفته شوند. برای مثال، شرکت Retorio که در حوزه استخدام فعالیت دارد، مدعی است که هوش مصنوعی این شرکت می‌تواند از طریق مصاحبه‌های ویدئویی، میزان تناسب افراد را برای شغل موردنظرشان پیش‌بینی کند. اما یک مطالعه نشان داد که این سیستم را می‌توان به‌سادگی فریب داد؛ مثلاً فقط با گذاشتن عینک یا تغییر پس‌زمینه ساده به یک قفسه کتاب. این موضوع نشان می‌دهد که الگوریتم مورد استفاده تنها بر همبستگی‌های سطحی تکیه دارد و اساس علمی معتبری ندارد.

چنین کاربردهای مشکوکی از هوش مصنوعی تنها به حوزه استخدام محدود نمی‌شود. در بخش‌های بهداشت، آموزش، مالی، عدالت کیفری و بیمه، ده‌ها نمونه وجود دارد که در آن‌ها هوش مصنوعی برای محروم کردن افراد از فرصت‌های مهم زندگی‌شان به کار گرفته شده است. در هلند، اداره مالیات این کشور از یک الگوریتم هوش مصنوعی برای شناسایی افرادی که در دریافت کمک‌هزینه فرزند تقلب کرده بودند، استفاده کرد. اما این سیستم هزاران والد را به اشتباه متهم کرد و از بسیاری از آن‌ها خواست که ده‌ها هزار یورو را بازگردانند. این رسوایی به حدی جدی بود که در نهایت، نخست‌وزیر و کل کابینه او مجبور به استعفا شدند.

در سال ۲۰۲۵، انتظار می‌رود که خطرات هوش مصنوعی نه از عملکرد مستقل آن، بلکه از نحوه استفاده انسان‌ها از آن ناشی شوند. این موارد شامل موقعیت‌هایی است که هوش مصنوعی به‌ظاهر خوب عمل می‌کند اما بیش‌ازحد به آن اعتماد می‌شود (مانند وکلایی که از ChatGPT استفاده می‌کنند)، موقعیت‌هایی که عملکرد خوبی دارد اما مورد سوءاستفاده قرار می‌گیرد (مانند دیپ‌فیک‌های غیراخلاقی و پدیده «سود دروغ‌گو»)، و مواردی که اصلاً برای آن کاربرد مناسب نیست اما همچنان مورد استفاده قرار می‌گیرد (مانند مواردی که حقوق افراد را نقض می‌کند.)

مدیریت این خطرات، وظیفه‌ای سنگین برای شرکت‌ها، دولت‌ها و جامعه است؛ و این کار به‌اندازه کافی دشوار هست، چه برسد به اینکه نگرانی‌های علمی‌تخیلی نیز حواس ما را از تهدیدهای واقعی پرت کند.


درباره نویسنده:
آرویند نارایانان؛ دانشمند علوم کامپیوتر و استاد دانشگاه پرینستون

منبع: Wired

مطالب مرتبط