سه هزار
Advertisement
جدیدترین مطالب
Article Image
فصلنامه «گام سوم» شماره ۴ و ۵

در این نوبت از فصلنامه گام سوم دو شماره «۴ تابستان» و «۵ پاییز» به‌طور همزمان منتشر شده است که همچون شماره‌های پیشین شامل مقالات متنوعی در موضوعات اقتصاد، آینده مشاغل، خانواده، نوشتار و سیاست به همراه دو پرونده با موضوعات داغ روز می‌شود.

Article Image
۱۳ رفتار غیرمعمول مدیران موفق که شاید شما را شگفت‌زده کند!

اداره‌ی یک شرکت کاری پر استرس است، به‌ویژه اگر یکی از بزرگ‌ترین شرکت‌های جهان را مدیریت کنید. این میزان بالای استرس می‌تواند به عادت‌های روزانه‌ی شدید و غیرمعمول منجر شود. در ادامه، برخی از عجیب‌ترین روال‌های روزانه‌ی مدیرعامل‌ها آمده است.

Article Image
چرا نترسیدن ‌شرط یافتن پاسخ‌های مهم است؟

فهمیدم سلامت روانم بهتر شده است، وقتی به خارج از کشور رفتم و دیگر دچار شوک فرهنگی نشدم.من بخش زیادی از خودم را در دخترانم می‌بینم. آن‌ها مشتاق‌اند وظایفشان را درست انجام دهند و اگر احساس کنند چیزی ممکن است «نامناسب» به نظر برسد، ناراحت و آشفته می‌شوند.

Article Image
داستان های علمی تخیلی؛ پلی میان تخیل و ارتباط علمی مؤثر

وقتی وارد دوره دکترایم شدم، می‌دانستم به همان اندازه که از انجام پژوهش لذت می‌برم، عاشق انتقال علم به عموم مردم نیز هستم. اما خیلی زود پژوهش بیشتر وقت مرا بلعید. اغلب تا نیمه‌های شب کار می‌کردم و بیشتر آخر هفته‌هایم صرف آماده‌سازی آزمایش‌ها، گردآوری داده‌ها یا جبران عقب‌ماندگی از انبوه پایان‌ناپذیر مقالات علمی روی میزم می‌شد.

پربازدیدترین مطالب
Article Image
جهان خسته از نابرابری و ثروتمندان

با تشدید بحران‌های محیط‌زیستی، اجتماعی و انسانی، جهان دیگر قادر به تحمل دو چیز نیست: ۱- هزینه‌های نابرابری اقتصادی ۲- جامعه ثروتمندان. کاهش نابرابری اقتصادی به‌تنهایی درمانی برای این بحران‌های جهانی نیست، اما نقش محوری در حل همه آنها دارد.

Article Image
روند ۱۰۰ ساله تغییر اشتغال زنان به روایت تصویر

نگاهی به تصاویر صد سال گذشته نشان می‌دهد که زنان چگونه از جنگ‌های جهانی تا قرن ۲۱، توانستند مرزهای شغلی را جابه‌جا کنند و مسیر جدیدی در تاریخ نیروی کار رقم بزنند.

Article Image
هوش مصنوعی و سیاست: چگونه بفهمیم چه چیزی و چه کسی واقعی است؟

اگر خوش‌شانس باشیم، فناوری‌های جدید فقط باعث سردرگمی مختصری می‌شوند. وگرنه، حوزه سیاسی ما می‌تواند برای همیشه تغییر کند.

...

نویسنده: آرویند نارایانان        مترجم: عباس امیدی        ۲۴ بهمن ۱۴۰۳

سال ۲۰۲۵؛ سوءاستفاده از هوش مصنوعی نگران‌کننده است

خطرات هوش مصنوعی از عملکرد مستقل آن ناشی نمی‌شوند، بلکه از نحوه استفاده انسان‌ها از آن سرچشمه می‌گیرند. مواردی شامل موقعیت‌هایی که هوش مصنوعی به‌ظاهر خوب عمل می‌کند اما بیش‌ازحد به آن اعتماد می‌شود یا مورد سوءاستفاده قرار می‌گیرد.


این مطلب نوشته‌ای است از آرویند نارایانان که در تاریخ ۱۳ دسامبر ۲۰۲۴ با عنوان
Worry About Misuse of AI, Not Superintelligence
در وب‌سایت Wired در مجموعه مقالات «جهان در سال ۲۰۲۵» منتشر شده است.


سم آلتمن، مدیرعامل OpenAI، پیش‌بینی می‌کند که هوش عمومی مصنوعی (AGI)؛ هوشی که در بیشتر وظایف از انسان برتر باشد، در حدود سال‌های ۲۰۲۷ یا ۲۰۲۸ محقق خواهد شد. ایلان ماسک زمان تحقق آن را بین سال‌های ۲۰۲۵ تا ۲۰۲۶ می‌داند و مدعی شده است که بابت خطرات هوش مصنوعی «خواب از چشمانش ربوده شده است.»

اما از همان روزهای نخستین این فناوری، پیش‌بینی‌هایی درباره ظهور قریب‌الوقوع هوش مصنوعی در سطح انسان بیش از ۵۰ سال است که مطرح می‌شوند. این پیش‌بینی‌ها نه‌تنها از نظر زمانی، بلکه از نظر ماهیتی نیز اشتباه بوده‌اند. امروزه می‌دانیم که رویکردهای مشخصی که متخصصان پیشین برای دستیابی به این سطح از هوش مصنوعی در نظر داشتند، ذاتاً قادر به تحقق آن نبودند. به همین ترتیب، با روشن‌تر شدن محدودیت‌های هوش مصنوعی کنونی، اغلب پژوهشگران این حوزه به این نتیجه رسیده‌اند که صرفاً ساخت مدل‌های بزرگ‌تر و قدرتمندتر منجر به شکل‌گیری هوش عمومی مصنوعی نخواهد شد.

البته هوش مصنوعی پیشرفته یک نگرانی بلندمدت است که باید مورد مطالعه پژوهشگران قرار گیرد. اما خطرات هوش مصنوعی در سال ۲۰۲۵، مانند گذشته، ناشی از سوءاستفاده از آن خواهند بود.

این سوءاستفاده‌ها ممکن است ناخواسته باشند، مانند تکیه بیش از حد و ناآگاهانه وکلا بر هوش مصنوعی. برای مثال، پس از انتشار ChatGPT، شماری از وکلا به دلیل ارائه اسناد حقوقی نادرست که توسط هوش مصنوعی تولید شده بودند، جریمه شدند، چراکه ظاهراً از تمایل چت‌بات‌ها به جعل اطلاعات آگاه نبودند. در استان بریتیش کلمبیا، وکیلی به نام «چونگ که» به پرداخت هزینه‌های وکیل طرف مقابل محکوم شد، زیرا در پرونده حقوقی خود از پرونده‌های ساختگی تولیدشده توسط هوش مصنوعی استفاده کرده بود. در نیویورک، دو وکیل به نام‌های استیون شوارتز و پیتر لودوکا به دلیل ارائه استنادهای جعلی ۵۰۰۰ دلار جریمه شدند. در کلرادو، زکریا کرا‌بیل به‌مدت یک سال از وکالت محروم شد، زیرا از پرونده‌های ساختگی تولیدشده توسط ChatGPT استفاده کرده و اشتباه را به یک «کارآموز حقوقی» نسبت داده بود. فهرست این موارد به‌سرعت در حال گسترش است.

سوءاستفاده‌های دیگر اما عامدانه‌اند. در ژانویه ۲۰۲۴، تصاویر غیر اخلاقی جعل‌شده‌ای از تیلور سوئیفت فضای شبکه‌های اجتماعی را پر کردند. این تصاویر با استفاده از ابزار هوش مصنوعی Designer، محصول مایکروسافت، ساخته شده بودند. هرچند این شرکت تدابیری برای جلوگیری از تولید تصاویر افراد واقعی در نظر گرفته بود، اما تغییر جزئی در املای نام سوئیفت برای دور زدن این محدودیت کافی بود. مایکروسافت پس از این ماجرا، این نقص را برطرف کرد. اما ماجرای تیلور سوئیفت تنها نوک کوه یخ است و تصاویر جعلی غیراخلاقی بدون رضایت افراد به‌سرعت در حال گسترش‌اند. بخشی از این روند به دلیل در دسترس بودن ابزارهای متن‌باز برای ساخت چنین محتوایی است. در حال حاضر، قانون‌گذاران در سراسر جهان در تلاش‌اند با تصویب مقررات جدید، با این معضل مقابله کنند، اما اثربخشی این اقدامات هنوز مشخص نیست.

در سال ۲۰۲۵، تشخیص واقعیت از جعل حتی دشوارتر خواهد شد. کیفیت صوت، متن و تصاویر تولیدشده توسط هوش مصنوعی حیرت‌انگیز است و ویدئو نیز به‌زودی به این فهرست اضافه خواهد شد. این مسئله می‌تواند به پدیده‌ای منجر شود که به آن «سود دروغ‌گو» می‌گویند: افراد صاحب قدرت می‌توانند شواهدی را که رفتار نادرستشان را نشان می‌دهد، با این ادعا که جعلی‌اند، رد کنند.

در سال ۲۰۲۳، شرکت تسلا در واکنش به اتهامی مبنی بر اینکه ایلان ماسک در سال ۲۰۱۶ درباره میزان ایمنی سیستم خودران این شرکت اغراق کرده و این امر منجر به تصادف شده است، ادعا کرد که ویدئوی آن زمان ماسک ممکن است یک دیپ‌فیک باشد. در هند، یک سیاستمدار اظهار داشت که فایل‌های صوتی منتشرشده از او که در آن‌ها به فساد در حزبش اذعان می‌کند، دستکاری شده‌اند؛ درحالی‌که حداقل یکی از این فایل‌ها توسط یک رسانه معتبر به‌عنوان صدای واقعی او تأیید شد. در آمریکا، دو متهم در حوادث حمله به کنگره در ۶ ژانویه ادعا کردند که ویدئوهایی که آن‌ها را در صحنه نشان می‌دهند، جعلی هستند. ولی هر دو گناهکار شناخته شدند.

در همین حال، برخی شرکت‌ها از سردرگمی عمومی سوءاستفاده کرده و محصولات بی‌اساس خود را با برچسب «هوش مصنوعی» می‌فروشند. این امر زمانی به‌شدت خطرناک می‌شود که چنین ابزارهایی برای دسته‌بندی افراد و اتخاذ تصمیم‌های مهم درباره آن‌ها به کار گرفته شوند. برای مثال، شرکت Retorio که در حوزه استخدام فعالیت دارد، مدعی است که هوش مصنوعی این شرکت می‌تواند از طریق مصاحبه‌های ویدئویی، میزان تناسب افراد را برای شغل موردنظرشان پیش‌بینی کند. اما یک مطالعه نشان داد که این سیستم را می‌توان به‌سادگی فریب داد؛ مثلاً فقط با گذاشتن عینک یا تغییر پس‌زمینه ساده به یک قفسه کتاب. این موضوع نشان می‌دهد که الگوریتم مورد استفاده تنها بر همبستگی‌های سطحی تکیه دارد و اساس علمی معتبری ندارد.

چنین کاربردهای مشکوکی از هوش مصنوعی تنها به حوزه استخدام محدود نمی‌شود. در بخش‌های بهداشت، آموزش، مالی، عدالت کیفری و بیمه، ده‌ها نمونه وجود دارد که در آن‌ها هوش مصنوعی برای محروم کردن افراد از فرصت‌های مهم زندگی‌شان به کار گرفته شده است. در هلند، اداره مالیات این کشور از یک الگوریتم هوش مصنوعی برای شناسایی افرادی که در دریافت کمک‌هزینه فرزند تقلب کرده بودند، استفاده کرد. اما این سیستم هزاران والد را به اشتباه متهم کرد و از بسیاری از آن‌ها خواست که ده‌ها هزار یورو را بازگردانند. این رسوایی به حدی جدی بود که در نهایت، نخست‌وزیر و کل کابینه او مجبور به استعفا شدند.

در سال ۲۰۲۵، انتظار می‌رود که خطرات هوش مصنوعی نه از عملکرد مستقل آن، بلکه از نحوه استفاده انسان‌ها از آن ناشی شوند. این موارد شامل موقعیت‌هایی است که هوش مصنوعی به‌ظاهر خوب عمل می‌کند اما بیش‌ازحد به آن اعتماد می‌شود (مانند وکلایی که از ChatGPT استفاده می‌کنند)، موقعیت‌هایی که عملکرد خوبی دارد اما مورد سوءاستفاده قرار می‌گیرد (مانند دیپ‌فیک‌های غیراخلاقی و پدیده «سود دروغ‌گو»)، و مواردی که اصلاً برای آن کاربرد مناسب نیست اما همچنان مورد استفاده قرار می‌گیرد (مانند مواردی که حقوق افراد را نقض می‌کند.)

مدیریت این خطرات، وظیفه‌ای سنگین برای شرکت‌ها، دولت‌ها و جامعه است؛ و این کار به‌اندازه کافی دشوار هست، چه برسد به اینکه نگرانی‌های علمی‌تخیلی نیز حواس ما را از تهدیدهای واقعی پرت کند.


درباره نویسنده:
آرویند نارایانان؛ دانشمند علوم کامپیوتر و استاد دانشگاه پرینستون

منبع: Wired

مطالب مرتبط