جدیدترین مطالب

فصلنامه «گام سوم» شماره ۱
در این شماره، مقالات متنوعی در موضوعات اقتصاد، آینده مشاغل، آیندهپژوهی، خانواده، تغییرات اقلیمی و سیاست به همراه بخشها نوشتار، شرح مفصل، گفتوگو و پروندهای با عنوان «شک عمیق» چاپ شده است.

کاهش هدررفت غذا با اپلیکیشن موبایلی
اگرچه این اپلیکیشن غذای باقیماندهی رستورانها را ارزان در اختیار کاربران قرار میدهد، اما همچنان ابهاماتی دربارهی میزان واقعی کاهش هدررفت و استفادهی تجاری برخی کسبوکارها از این سیستم وجود دارد.

چالشهای مدیریت تیم کاری با اعضایی از نسل Z
رهبری موفق تنها به ارائه عالی بستگی ندارد؛ حمایت تیمی و مسئولیتپذیری نیز مهم است. در بحبوحه آمادهسازی برای جلسهای مهم، مخالفت یکی از اعضای تیم میتواند تنش ایجاد کند. شد. آیا انگیزههای فردی فراتر از مسئولیتهای کاری هستند؟

معلمان باید پتانسیل ChatGPT را بررسی کنند
بسیاری از دانشآموزان اکنون از چتباتهای هوش مصنوعی برای انجام تکالیف خود استفاده میکنند. معلمان باید نحوه گنجاندن این ابزارها در فرآیند تدریس و یادگیری را مطالعه کنند و در عین حال، خطرات آن را به حداقل برسانند.

نویسنده: آرویند نارایانان مترجم: عباس امیدی ۲۴ بهمن ۱۴۰۳
سال ۲۰۲۵؛ سوءاستفاده از هوش مصنوعی نگرانکننده است
خطرات هوش مصنوعی از عملکرد مستقل آن ناشی نمیشوند، بلکه از نحوه استفاده انسانها از آن سرچشمه میگیرند. مواردی شامل موقعیتهایی که هوش مصنوعی بهظاهر خوب عمل میکند اما بیشازحد به آن اعتماد میشود یا مورد سوءاستفاده قرار میگیرد.
این مطلب نوشتهای است از آرویند نارایانان که در تاریخ ۱۳ دسامبر ۲۰۲۴ با عنوان
Worry About Misuse of AI, Not Superintelligence
در وبسایت Wired در مجموعه مقالات «جهان در سال ۲۰۲۵» منتشر شده است.
سم آلتمن، مدیرعامل OpenAI، پیشبینی میکند که هوش عمومی مصنوعی (AGI)؛ هوشی که در بیشتر وظایف از انسان برتر باشد، در حدود سالهای ۲۰۲۷ یا ۲۰۲۸ محقق خواهد شد. ایلان ماسک زمان تحقق آن را بین سالهای ۲۰۲۵ تا ۲۰۲۶ میداند و مدعی شده است که بابت خطرات هوش مصنوعی «خواب از چشمانش ربوده شده است.»
اما از همان روزهای نخستین این فناوری، پیشبینیهایی درباره ظهور قریبالوقوع هوش مصنوعی در سطح انسان بیش از ۵۰ سال است که مطرح میشوند. این پیشبینیها نهتنها از نظر زمانی، بلکه از نظر ماهیتی نیز اشتباه بودهاند. امروزه میدانیم که رویکردهای مشخصی که متخصصان پیشین برای دستیابی به این سطح از هوش مصنوعی در نظر داشتند، ذاتاً قادر به تحقق آن نبودند. به همین ترتیب، با روشنتر شدن محدودیتهای هوش مصنوعی کنونی، اغلب پژوهشگران این حوزه به این نتیجه رسیدهاند که صرفاً ساخت مدلهای بزرگتر و قدرتمندتر منجر به شکلگیری هوش عمومی مصنوعی نخواهد شد.
البته هوش مصنوعی پیشرفته یک نگرانی بلندمدت است که باید مورد مطالعه پژوهشگران قرار گیرد. اما خطرات هوش مصنوعی در سال ۲۰۲۵، مانند گذشته، ناشی از سوءاستفاده از آن خواهند بود.
این سوءاستفادهها ممکن است ناخواسته باشند، مانند تکیه بیش از حد و ناآگاهانه وکلا بر هوش مصنوعی. برای مثال، پس از انتشار ChatGPT، شماری از وکلا به دلیل ارائه اسناد حقوقی نادرست که توسط هوش مصنوعی تولید شده بودند، جریمه شدند، چراکه ظاهراً از تمایل چتباتها به جعل اطلاعات آگاه نبودند. در استان بریتیش کلمبیا، وکیلی به نام «چونگ که» به پرداخت هزینههای وکیل طرف مقابل محکوم شد، زیرا در پرونده حقوقی خود از پروندههای ساختگی تولیدشده توسط هوش مصنوعی استفاده کرده بود. در نیویورک، دو وکیل به نامهای استیون شوارتز و پیتر لودوکا به دلیل ارائه استنادهای جعلی ۵۰۰۰ دلار جریمه شدند. در کلرادو، زکریا کرابیل بهمدت یک سال از وکالت محروم شد، زیرا از پروندههای ساختگی تولیدشده توسط ChatGPT استفاده کرده و اشتباه را به یک «کارآموز حقوقی» نسبت داده بود. فهرست این موارد بهسرعت در حال گسترش است.
سوءاستفادههای دیگر اما عامدانهاند. در ژانویه ۲۰۲۴، تصاویر غیر اخلاقی جعلشدهای از تیلور سوئیفت فضای شبکههای اجتماعی را پر کردند. این تصاویر با استفاده از ابزار هوش مصنوعی Designer، محصول مایکروسافت، ساخته شده بودند. هرچند این شرکت تدابیری برای جلوگیری از تولید تصاویر افراد واقعی در نظر گرفته بود، اما تغییر جزئی در املای نام سوئیفت برای دور زدن این محدودیت کافی بود. مایکروسافت پس از این ماجرا، این نقص را برطرف کرد. اما ماجرای تیلور سوئیفت تنها نوک کوه یخ است و تصاویر جعلی غیراخلاقی بدون رضایت افراد بهسرعت در حال گسترشاند. بخشی از این روند به دلیل در دسترس بودن ابزارهای متنباز برای ساخت چنین محتوایی است. در حال حاضر، قانونگذاران در سراسر جهان در تلاشاند با تصویب مقررات جدید، با این معضل مقابله کنند، اما اثربخشی این اقدامات هنوز مشخص نیست.
در سال ۲۰۲۵، تشخیص واقعیت از جعل حتی دشوارتر خواهد شد. کیفیت صوت، متن و تصاویر تولیدشده توسط هوش مصنوعی حیرتانگیز است و ویدئو نیز بهزودی به این فهرست اضافه خواهد شد. این مسئله میتواند به پدیدهای منجر شود که به آن «سود دروغگو» میگویند: افراد صاحب قدرت میتوانند شواهدی را که رفتار نادرستشان را نشان میدهد، با این ادعا که جعلیاند، رد کنند.
در سال ۲۰۲۳، شرکت تسلا در واکنش به اتهامی مبنی بر اینکه ایلان ماسک در سال ۲۰۱۶ درباره میزان ایمنی سیستم خودران این شرکت اغراق کرده و این امر منجر به تصادف شده است، ادعا کرد که ویدئوی آن زمان ماسک ممکن است یک دیپفیک باشد. در هند، یک سیاستمدار اظهار داشت که فایلهای صوتی منتشرشده از او که در آنها به فساد در حزبش اذعان میکند، دستکاری شدهاند؛ درحالیکه حداقل یکی از این فایلها توسط یک رسانه معتبر بهعنوان صدای واقعی او تأیید شد. در آمریکا، دو متهم در حوادث حمله به کنگره در ۶ ژانویه ادعا کردند که ویدئوهایی که آنها را در صحنه نشان میدهند، جعلی هستند. ولی هر دو گناهکار شناخته شدند.
در همین حال، برخی شرکتها از سردرگمی عمومی سوءاستفاده کرده و محصولات بیاساس خود را با برچسب «هوش مصنوعی» میفروشند. این امر زمانی بهشدت خطرناک میشود که چنین ابزارهایی برای دستهبندی افراد و اتخاذ تصمیمهای مهم درباره آنها به کار گرفته شوند. برای مثال، شرکت Retorio که در حوزه استخدام فعالیت دارد، مدعی است که هوش مصنوعی این شرکت میتواند از طریق مصاحبههای ویدئویی، میزان تناسب افراد را برای شغل موردنظرشان پیشبینی کند. اما یک مطالعه نشان داد که این سیستم را میتوان بهسادگی فریب داد؛ مثلاً فقط با گذاشتن عینک یا تغییر پسزمینه ساده به یک قفسه کتاب. این موضوع نشان میدهد که الگوریتم مورد استفاده تنها بر همبستگیهای سطحی تکیه دارد و اساس علمی معتبری ندارد.
چنین کاربردهای مشکوکی از هوش مصنوعی تنها به حوزه استخدام محدود نمیشود. در بخشهای بهداشت، آموزش، مالی، عدالت کیفری و بیمه، دهها نمونه وجود دارد که در آنها هوش مصنوعی برای محروم کردن افراد از فرصتهای مهم زندگیشان به کار گرفته شده است. در هلند، اداره مالیات این کشور از یک الگوریتم هوش مصنوعی برای شناسایی افرادی که در دریافت کمکهزینه فرزند تقلب کرده بودند، استفاده کرد. اما این سیستم هزاران والد را به اشتباه متهم کرد و از بسیاری از آنها خواست که دهها هزار یورو را بازگردانند. این رسوایی به حدی جدی بود که در نهایت، نخستوزیر و کل کابینه او مجبور به استعفا شدند.
در سال ۲۰۲۵، انتظار میرود که خطرات هوش مصنوعی نه از عملکرد مستقل آن، بلکه از نحوه استفاده انسانها از آن ناشی شوند. این موارد شامل موقعیتهایی است که هوش مصنوعی بهظاهر خوب عمل میکند اما بیشازحد به آن اعتماد میشود (مانند وکلایی که از ChatGPT استفاده میکنند)، موقعیتهایی که عملکرد خوبی دارد اما مورد سوءاستفاده قرار میگیرد (مانند دیپفیکهای غیراخلاقی و پدیده «سود دروغگو»)، و مواردی که اصلاً برای آن کاربرد مناسب نیست اما همچنان مورد استفاده قرار میگیرد (مانند مواردی که حقوق افراد را نقض میکند.)
مدیریت این خطرات، وظیفهای سنگین برای شرکتها، دولتها و جامعه است؛ و این کار بهاندازه کافی دشوار هست، چه برسد به اینکه نگرانیهای علمیتخیلی نیز حواس ما را از تهدیدهای واقعی پرت کند.
درباره نویسنده:
آرویند نارایانان؛ دانشمند علوم کامپیوتر و استاد دانشگاه پرینستون