جدیدترین مطالب

فصلنامه «گام سوم» شماره ۳
در این شماره نیز مقالاتی متنوع در موضوعات اقتصاد، آیندهپژوهی، خانواده به همراه بخشهای نوشتار، سیاست و پروندهای با عنوان «آیندهای قمر در عقرب» و بخش ضمیمه نوروزی با عنوان «بزرگ شدن در خاندان مرداک» چاپ شده است.

چالشهای والدین شاغل: وابستگی به خدمات نگهداری کودک
دیگران فکر میکنند من مادر بدی هستم چون بچههایم را به مراکز مراقبت پولی میفرستم، اما فرزندانم عاشق مراقبانشان و فعالیتهایی هستند که با آنها انجام میدهند. و اینکه من به کارم ادامه میدهم، بهترین تصمیم برای خودم و خانوادهام است. مراقبت پولی به این معناست که من زیر فشار انجام همزمان همهچیز از پا نمیافتم. این نوع مراقبت از سلامت روان من محافظت میکند تا بتوانم هم کار کنم و هم مادر باشم، بیآنکه به کمک پدربزرگ و مادربزرگ وابسته شوم.

الگوریتم جدید برای مقابله با «توهمات» هوش مصنوعی
یکی از مشکلات پایدار ابزارهای هوش مصنوعی مولد امروزی، مانند ChatGPT، این است که اغلب با اطمینان کامل اطلاعات نادرست ارائه میکنند. دانشمندان علوم رایانه این رفتار را «توهم» مینامند و آن را یکی از موانع اصلی کاربردپذیری هوش مصنوعی میدانند. توهمها باعث بروز برخی اشتباهات عمومی شرمآور شدهاند.

ریاکاری در قضاوت کسانی که زیباتر میشوند!
برای آن دسته که با این اصطلاح آشنا نیستند، «چهرهگرایی» به معنای تبعیض بر مبنای جذابیت ظاهری است. در حالی که بیشتر اشکال تبعیض، اغلب بنا به تعریف، به گروههای خاصی محدود میشوند؛ برای مثال، زنستیزی نمیتواند متوجه مردان باشد،چهرهگرایی هیچکس را مستثنی نمیکند.
پربازدیدترین مطالب

هوش مصنوعی و سیاست: چگونه بفهمیم چه چیزی و چه کسی واقعی است؟
اگر خوششانس باشیم، فناوریهای جدید فقط باعث سردرگمی مختصری میشوند. وگرنه، حوزه سیاسی ما میتواند برای همیشه تغییر کند.

روند ۱۰۰ ساله تغییر اشتغال زنان به روایت تصویر
نگاهی به تصاویر صد سال گذشته نشان میدهد که زنان چگونه از جنگهای جهانی تا قرن ۲۱، توانستند مرزهای شغلی را جابهجا کنند و مسیر جدیدی در تاریخ نیروی کار رقم بزنند.

انواع هوش، کاربردهای هوش هیجانی و تقویت آن در کودکان
ین مطلب نگاهی دارد به انواع هوش و نقش مهم آنها در زندگی روزمره و تواناییهای شناختی انسان. همچنین مروری بر هوش هیجانی و کاربردها و روشهای تقویت آن در کودکان.

نویسنده: بیلی پریگو و ویل هنشال مترجم: نیوشا امیدی ۱۲ مرداد ۱۴۰۴
هشدار کارمندان سابقOpenAI : «میزان مخاطره بسیار بالاست»
هر دوی آنها معتقدند که توانمندی سامانههای هوش مصنوعی در سالهای پیشرو بهطرز چشمگیری افزایش خواهد یافت و این تحولات پیامدهایی بنیادین برای جامعه در پی خواهند داشت. کوکوتایلو میگوید: «میزان مخاطره واقعاً بسیار بالاست.»
این مطلب نوشتهای است از بیلی پریگو و ویل هنشال که در تاریخ ۵ ژوئن ۲۰۲۴ با عنوان
The Stakes Are Incredibly High
در وبسایت New York Times منتشر شده است.
این مصاحبه ممکن است برای ویلیام ساندرز هزینهبر باشد. او که پیشتر بهعنوان پژوهشگر ایمنی در OpenAI فعالیت میکرد، در فوریه از این شرکت استعفا داد و مانند بسیاری دیگر از کارکنان جداشده،توافقنامهای مبنی بر عدم بدگویی امضا کرد تا بتواند حق فروش سهام خود در شرکت را حفظ کند. با اینکه وی میگوید OpenAI از آن زمان به او اعلام کرده که قصدی برای اجرای مفاد این توافقنامه ندارد و در این خصوص تعهدات عمومی مشابهی نیز ارائه داده است، اما همچنان با بیان اظهاراتش ریسک میکند. او به نشریه تایم میگوید: «ممکن است با گفتوگو با شما هرگز نتوانم به سهامی که ارزش آن میلیونها دلار است، دسترسی پیدا کنم. اما بهنظر من، داشتن یک گفتوگوی عمومی درباره آنچه در این شرکتهای AGI رخ میدهد مهمتر است.»
افراد دیگری نیز چنین احساسی دارند. روز سهشنبه، سیزده نفر از کارکنان فعلی و پیشین شرکتهای OpenAI و گوگل دیپمایند خواستار حمایتهای قویتر از افشاگران در شرکتهایی شدند که در حال توسعه هوش مصنوعی پیشرفته هستند. این درخواستها در شرایطی مطرح شد که نگرانیها نسبت به احتمال خروج کنترل این فناوری قدرتمند از دست بشر افزایش یافته است. آنها در نامهای سرگشاده، از این آزمایشگاهها خواستند تا به کارکنان «حق هشدار» بدهند،بهطوریکه بتوانند در صورت بروز نگرانیهای ایمنی، به نهادهای ناظر، اعضای هیئتمدیره و افکار عمومی هشدار دهند.
این نامه پس از مجموعهای از استعفاهای پرسروصدا در OpenAI منتشر شد؛ از جمله ایلیا سوتسکِوِر، دانشمند ارشد شرکت، که در نوامبر سال گذشته به برکناری سم آلتمن رأی داد اما در نهایت از شرکت کنار گذاشته شد. سوتسکِوِر تاکنون بهصورت عمومی درباره این رویدادها اظهار نظر نکرده و دلایل استعفای او نامشخص است. پژوهشگر ارشد دیگری در حوزه ایمنی، یان لایکه، نیز در ماه مه استعفا داد و اعلام کرد که فرهنگ ایمنی در OpenAI در اولویت پایینتری نسبت به عرضه محصولات جدید قرار گرفته است.
او تنها فردی نیست که بهتازگی از شرکت جدا شده است. دنیل کوکوتایلو، یکی از کارکنان پیشین و از امضاکنندگان نامه سرگشاده، در ماه آوریل استعفا داد و در فضای آنلاین نوشت که دیگر اطمینان ندارد این آزمایشگاه در صورت ساخت AGI (هوش عمومی مصنوعی)،فناوریای نظری که تمامی آزمایشگاههای پیشروی هوش مصنوعی در تلاش برای ساخت آن هستند و میتواند وظایف اقتصادی با ارزش را بهتر از انسان انجام دهد،رفتار مسئولانهای از خود نشان دهد. پس از استعفا، کوکوتایلو از امضای توافقنامه عدم بدگویی که شرکت از کارکنان جداشده درخواست میکند، امتناع ورزید. او باور داشت که با این اقدام، میلیونها دلار از سهام خود در OpenAI را از دست میدهد. پس از آنکه وبسایت Vox گزارشی درباره مفاد این توافقنامه منتشر کرد، OpenAI سیاست خود را تغییر داد و اعلام کرد که از کارکنانی که از شرکت انتقاد کردهاند، سهامی پس نمیگیرد.
OpenAI در بیانیهای تأکید کرد که گفتوگوی عمومی درباره هوش مصنوعی پیشرفته امری ضروری است. لیندسی هِلد، سخنگوی OpenAI، به نیویورک تایمز گفت: «ما به سابقه خود در ارائه ایمنترین و توانمندترین سامانههای هوش مصنوعی افتخار میکنیم و به رویکرد علمی خود برای مدیریت ریسک باور داریم. ما با این دیدگاه موافقیم که بحث و بررسی دقیق در این حوزه، با توجه به اهمیت این فناوری، حیاتی است و به تعامل با دولتها، نهادهای جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد.»OpenAI از اظهار نظر بیشتر به تایم درباره ادعاهای مطرحشده در این گزارش خودداری کرد؛ گوگل دیپمایند نیز درباره این نامه سرگشاده موضعگیری عمومی نداشته و به درخواست تایم برای اظهارنظر پاسخ نداده است.
اما در گفتوگو با نشریه تایم، دو کارمند سابق OpenAI،دنیل کوکوتایلو، که در تیم حاکمیت شرکتی فعالیت میکرد، و ویلیام ساندرز، پژوهشگر تیم «همراستاسازی فوقپیشرفته»،اظهار داشتند که حتی فراتر از توافقنامههای عدم بدگویی، قراردادهای محرمانگی با تعاریف گسترده که در آزمایشگاههای پیشروی هوش مصنوعی رایجاند، افشای عمومی نگرانیها را برای کارکنان بسیار پرریسک میکند. هر دوی آنها معتقدند که توانمندی سامانههای هوش مصنوعی در سالهای پیشرو بهطرز چشمگیری افزایش خواهد یافت و این تحولات پیامدهایی بنیادین برای جامعه در پی خواهند داشت. کوکوتایلو میگوید: «میزان مخاطره واقعاً بسیار بالاست.»
در صنایعی که تحت نظارت دولت قرار دارند، مانند امور مالی، افشاگران از حمایت قانونی دولت ایالات متحده برخوردارند و در صورت افشای تخلف، حتی میتوانند سهمی از جریمههای موفق را دریافت کنند. اما از آنجا که در زمینه توسعه هوش مصنوعی پیشرفته هیچ قانون مشخصی وجود ندارد، افشاگران در این صنعت از چنین حمایتهایی بیبهرهاند و حتی ممکن است بهدلیل نقض قراردادهای عدم افشا یا عدم بدگویی، خود در معرض پیگرد قانونی قرار گیرند. کوکوتایلو میگوید: «حمایتهای قانونی پیشین از افشاگران در اینجا کاربردی ندارد، چون این صنعت در عمل تحت نظارت نیست، و بنابراین قانونی برای بسیاری از کارهای بالقوه خطرناکی که ممکن است شرکتها انجام دهند، وجود ندارد.»
ساندرز میگوید: «آزمایشگاههای AGI واقعاً در برابر هیچکس پاسخگو نیستند. پاسخگویی مستلزم آن است که اگر سازمانی کار اشتباهی انجام دهد، اطلاعات مربوط به آن قابل اشتراکگذاری باشد. و در حال حاضر چنین چیزی وجود ندارد.»
ساندرز میگوید زمانی که در سال ۲۰۲۱ به OpenAI پیوست، امیدوار بود که شرکت درگیر مجموعهای از پرسشهای دشوار باشد: «اگر ماشینی وجود داشته باشد که بتواند همان کاری را که شما انجام میدهید،و برای جامعه اقتصادی ارزش دارد،انجام دهد، واقعاً چقدر قدرت در یک جامعه دارید؟ آیا میتوانیم جامعهای دموکراتیک داشته باشیم وقتی جایگزینی برای نیروی کار انسانی وجود دارد؟» اما پس از انتشار ChatGPT در نوامبر ۲۰۲۲، OpenAI بهتدریج به شرکتی کاملاً متفاوت تبدیل شد. ارزش آن به دهها میلیارد دلار رسید و مدیران آن در رقابتی نفسگیر برای پیشیگرفتن از رقبا قرار گرفتند. ساندرز میگوید اکنون بهنظر میرسد پرسشهایی که او امیدوار بود OpenAI به آنها بپردازد، «به تعویق افتادهاند و اولویت خود را در برابر عرضه محصول بعدی و پرزرقوبرقتر از دست دادهاند.»
در نامه سرگشاده، ساندرز، کوکوتایلو و شماری دیگر از کارکنان فعلی و پیشین خواستار آن شدند که آزمایشگاههای هوش مصنوعی از وادار کردن کارکنان به امضای توافقنامههای عدم بدگویی دست بکشند؛ فرایندی برای مطرح کردن نگرانیها نزد اعضای هیئتمدیره، نهادهای نظارتی و گروههای دیدهبان ایجاد کنند؛ و «فرهنگ انتقاد آزادانه» را تقویت نمایند. در این نامه آمده است که اگر افشاگر، پس از تلاش برای بیان نگرانیها از طریق این مسیرها، تصمیم به انتشار عمومی آنها بگیرد، شرکتهای هوش مصنوعی باید متعهد شوند که هیچگونه تلافی یا اقدام تنبیهی علیه او انجام نخواهند داد.
حداقل یک کارمند فعلی OpenAI نامه سرگشاده را در شبکههای اجتماعی مورد انتقاد قرار داده و استدلال کرده است که عمومیکردن نگرانیهای ایمنی توسط کارکنان، رسیدگی به مسائل بسیار حساس را برای آزمایشگاهها دشوارتر میکند. جاشوا آچیم، دانشمند پژوهشی در OpenAI، در پستی در ایکس (پلتفرمی که پیشتر با نام توییتر شناخته میشد) نوشت: «اگر میخواهید ایمنی در OpenAI بهدرستی عمل کند، یک پایهی اولیه از اعتماد باید وجود داشته باشد؛ جایی که همهی افرادی که با ما کار میکنند بدانند که ما محرمانگیشان را حفظ خواهیم کرد. این نامه، ترک بزرگی در آن پایه ایجاد کرده است.»
با این حال، این نوع استدلال تا حدی بر پایهی رفتار مسئولانهی رهبران OpenAI استوار است،رفتاری که رویدادهای اخیر آن را زیر سؤال بردهاند. ساندرز معتقد است که سم آلتمن، مدیرعامل شرکت، ذاتاً در برابر پاسخگویی مقاومت میکند. او میگوید: «من فکر میکنم بهویژه دربارهی سم آلتمن، او با نظارت و پاسخگویی بسیار ناخوشایند است. نشانهاش هم این است که هر گروهی که ممکن است نقشی نظارتی بر او داشته باشد،از جمله هیئتمدیره و کمیته ایمنی و امنیت،آلتمن احساس میکند باید شخصاً در آن حضور داشته باشد، و هیچکس نمیتواند به او «نه» بگوید.»
پس از آنکه آلتمن در نوامبر گذشته توسط هیئتمدیره پیشین OpenAI برکنار شد، شرکت حقوقی WilmerHale تحقیقی درباره شرایط این برکناری انجام داد و به این نتیجه رسید که «رفتار او دلیلی برای عزل وی فراهم نکرده است.» هیئتمدیره جدید OpenAI بعداً «اعتماد کامل» خود را به رهبری آلتمن ابراز کرد و در ماه مارس، کرسی هیئتمدیرهی او را بازگرداند. لری سامرز و برت تیلور، دو عضو جدید هیئتمدیره، اخیراً در اکونومیست نوشتند: «ما آقای آلتمن را در همه مسائل مرتبط بسیار صریح و در تعامل با تیم مدیریتی خود همواره خوشرفتار یافتهایم.»
برای ساندرز، پاسخگویی امری حیاتی است،و بدون وجود نهادهای ناظر بیرونی و مستقل، نمیتوان آن را محقق ساخت. او میگوید: «اگر بخواهیم یک توسعهدهندهی AGI واقعاً در خدمت منافع عمومی باشد و به آرمان ساخت هوش عمومی مصنوعی ایمن و مفید پایبند بماند، باید سازوکارهایی برای نظارت و پاسخگویی وجود داشته باشند که بهراستی شرکت را به این آرمان متعهد نگه دارند. در آن صورت، در جهانی ایدهآل، اهمیتی نداشت که چه کسی بر صندلی مدیرعامل نشسته است. این واقعاً نگرانکننده است اگر جهان ناچار باشد مدام تشخیص دهد کدام مدیرعامل در این شرکتهای هوش مصنوعی دارای شخصیت اخلاقی بهتری است. این وضعیت خوبی نیست که در آن قرار داریم.»
درباره نویسنده:
بیلی پریگو و ویل هنشال روزنامهنگارانی هستند که برای نشریات معتبری مانند واشنگتن پست و تایمز فعالیت کردهاند و بیشتر به خاطر پوشش اخبار فناوری، اطلاعات نهادهای امنیتی و رسانههای اجتماعی شناخته میشوند.