جدیدترین مطالب
فصلنامه «گام سوم» شماره ۱
در این شماره، مقالات متنوعی در موضوعات اقتصاد، آینده مشاغل، آیندهپژوهی، خانواده، تغییرات اقلیمی و سیاست به همراه بخشها نوشتار، شرح مفصل، گفتوگو و پروندهای با عنوان «شک عمیق» چاپ شده است.
صنعت بازی و شمشیر دو لبه هوش مصنوعی
بازیهای ویدیویی با قدرت هوش مصنوعی سریعتر تولید میشوند، اما این موضوع چه تاثیری بر کیفیت بازیها و آینده شغلی هنرمندان و کارگران صنعت بازیسازی دارد؟ این مقاله شما را به عمق این چالش میبرد.
بایدها و نبایدهای اشتغال نوجوانان
اشتغال نوجوانان میتواند فرصتی برای یادگیری مهارتهایی مثل مدیریت زمان یا تقویت اخلاق کاری باشد یا میتواند به کابوسی تبدیل شود. همه آنچه والدین باید بدانند را اینجا بخوانید.
پایان اینفلوئنسرها
در جهانی که اینفلوئنسرها در حال افزایش بیرویه هستند و دامنه توجه انسان کمتر از چند ثانیه شده است، چه اتفاقی برای ارزش واقعی محتوا خواهد افتاد؟ این مقاله به بررسی اشباع شبکههای اجتماعی از اینفلوئنسرها و تأثیر آن بر کیفیت ارتباطات و فرهنگ دیجیتال میپردازد.
نویسنده: کالین هورگان ۴ اردیبهشت ۱۴۰۳
هوش مصنوعی و سیاست: چگونه بفهمیم چه چیزی و چه کسی واقعی است؟
اگر خوششانس باشیم، فناوریهای جدید فقط باعث سردرگمی مختصری میشوند. وگرنه، حوزه سیاسی ما میتواند برای همیشه تغییر کند.
این مطلب نوشتهای است از کالین هورگان که در تاریخ ۱۳ اکتبر ۲۰۲۳ با عنوان
AI and Politics: How Will We Know What—and Who—Is Real
در وبسایت The Walrus منتشر شده است. ترجمه این مطلب توسط تیم سههزار انجام شده و در اختیار خوانندگان گرامی قرار میگیرد.
در ژانویه، حزب آلبرتا که یک حزب استانی میانهرو است، ویدئویی را در حساب رسمی اینستاگرام خود منتشر نمود. در آن ویدیو که همان موقع حذف شد ولی هنوز در فید توییتر آنها موجود است، مردی بود با ژاکت آبی رو به دوربین با نمایی از افق شهر کلگری در پشت سرش. حالتش مشکوک بود. آن مرد قبل از اینکه آلبرتیها به دنبال «گزینه دیگری» در روز انتخابات باشند، قاطعانه گفت «آیا آلبرتا به حزب سیاسی سوم نیاز دارد؟ به این بستگی دارد که از انتخابهای فعلی خود راضی هستید یا خیر؟»، دهانش به درستی حروف صدادار را ادا نمیکرد و چهرهاش به طرز عجیبی بیحرکت بود. همچنین صدایش که کاملا انسانگونه به نظر نمیرسید.
بخاطر اینکه او انسان نبود و آن ویدیو با هوش مصنوعی تولید شده بود. حزب آلبرتا در پستی که از آن زمان حذف شده بود، تصریح کرد که «آن چهره یک هوش مصنوعی است، اما کلمات توسط یک شخص واقعی نوشته شدهاند». این اپیزودی ناراحت کننده بود، برخلاف یکی از اپیزودهای سریال موفق تکنو – دیستوپیایی Black Mirror که در آن یک خرس انیمیشن آبی رنگ به نام والدو، با صداپیشگی یک کمدین، به عنوان یک نامزد ضد نظام در انتخابات میان دورهای بریتانیا شرکت میکند.
توماس جفرسون در زمستان 1789 نوشت: «… هر جا مردم به خوبی آگاه باشند، میتوانند به دولت خودشان اعتماد کنند». به عبارت دیگر، در یک دموکراسی، آگاه بودن مردم را دارای نماینده میکند، و نماینده داشتن به ما صدایی رسا میدهد.
هوش مصنوعی این پتانسیل را دارد که هر دوی این مفروضات حیاتی را که صدها سال در قلب درک ما از دموکراسی جاسازی شدهاند، به چالش بکشد. چه اتفاقی میافتد وقتی بلندترین یا تأثیرگذارترین صدا در سیاست، صدایی باشد که توسط رایانه ایجاد شود؟ و چه اتفاقی میافتد وقتی آن صدای ساخته شده توسط رایانه نیز شبیه یک انسان به نظر میرسد؟ اگر خوش شانس باشیم، صدا و ویدیوی تولید شده یا دستکاری شده با هوش مصنوعی تنها لحظات کوتاهی از سردرگمی مجزا در حوزه سیاسی ما ایجاد میکند. وگرنه، این خطر وجود دارد که سیاست – و جامعه – را برای همیشه به هم بزند.
چیزی که من را میترساند این است که ما به دام آنها نمیافتیم، یا بسیاری از ما به آنان علاقه نداریم. اما آنها یکی یکی در طول زمان ظاهر میشوند و ما دائماً در حال دعوا هستیم که آیا آخرین نمونه از این موارد را باور میکنیم یا نه.
بخش عمدهای از سرنوشت ما به آشنایی با آنچه می بینیم بستگی دارد. برای مثال رباتها را در نظر بگیرید. این برنامههای خودکار یا نیمهخودکار از هوش مصنوعی پشتیبانی میکنند و پلتفرمهای رسانههای اجتماعی در حال حاضر مملو از آنها هستند. آنها معمولاً برای جعل کردن تعداد فالوورها، پاسخگویی خودکار به سؤالات مشتری و ارائه بهروزرسانیهای اخبار فوری استفاده میشوند. نگرانکنندهتر اینکه، آنها همچنین در کمپینها برای تأثیرگذاری بر بحث عمومی یا در برخی موارد، آزار و اذیت مردم استفاده میشوند. اما این نوع رباتها بر پایه متن باقی میمانند. آنچه حزب آلبرتا ایجاد کرد، و آنچه دیگران میسازند، بسیار متفاوت است. زیرا که دیدار و شنیدار ما را به چالش میکشند.
در سال 2018، جردن پیل، بازیگر و کارگردان، اجازه داد صدایش به صورت دیجیتالی تغییر داده شود و سپس با یک ویدیوی دستکاری شده از باراک اوباما ادغام گردد، به طوری که به نظر میرسید انگار رئیس جمهور سابق ایالات متحده در واقع فیلمنامه پیل را روخوانی میکند. این نوع ویدیو با هوش مصنوعی مولد ساخته میشود که به آن «دیپ فیک» میگویند. آن ویدیو به عنوان هشداری در برابر احتمال کمپینهای اطلاعات غلط تصنعی (ساختگی) در آینده، از جمله انتخابات 2020 ایالات متحده ایجاد شد. اما آن انتخابات بدون هیچگونه سردرگمی قابل توجه ناشی از هوش مصنوعی گذشت. در عوض شبکه NPR (National Public Radio) آن سال در تلاشی برای توضیح عدم وجود دیپفیک نتیجهگیری کرد که «فریبهای ساده مانند ویرایش انتخابی (روایتهای گزینشی) یا دروغهای صریح به خوبی جواب دادهاند».
اما در آن زمان، محدودیتهای فنی و هزینهای وجود داشت. به گفته یک کارشناس: «نمیشود فقط با دانلود یک برنامه … و یک چیزی شبیه فیلمنامه و یک نفر که آن حرفها را بزند، بشود ویدیویی در قالب دیپفیک ساخت. شاید در چند سال آینده [به آن نقطه برسیم]، آن موقع درست کردن دستکاریهای قانعکننده به طور بالقوهای بسیار آسان خواهد بود.»
ما الان آنجا هستیم.
در ماه فوریه، یک حساب کاربری اینستاگرام ویدئویی را منتشر کرد که در آن ظاهراً جو بایدن، رئیس جمهور آمریکا، اظهارات توهینآمیزی در مورد زنان تراجنسیتی میکند. صدای آن با استفاده از یک برنامه هوش مصنوعی که صداهای واقعی را تقلید میکند، تولید شده است. آن ویدیو در رسانههای اجتماعی به عنوان یک «ویدیو تغییر یافته» علامتگذاری شد، اما مورد توجه قرار گرفت و توسط برخی رسانههای راستگرای آمریکایی بازنشر شد. حتی حامیان بایدن هم صدای او را جعل کردند. تامی ویتور، یکی از کارمندان کاخ سفید در دوران دولت اوباما، قبل از پخش کلیپی که چیزی شبیه بایدن بود، گفت: «آخر هفته با یک دوست بسیار مهم برخورد کردم. ویتور خیلی زود اعتراف کرد که برای ساخت این کلیپ 5 دلار در سایت elevenlabs پرداخت کرده است.»
تفاوت مهمی بین دیپفیک حزب آلبرتا (شخصی که کاملاً توسط رایانه ساخته شده) با نمایش صوتی و تصویری ترکیب شده از یک انسان واقعی مانند رئیس جمهور فعلی، وجود دارد. با این حال، واکنش به هر دو یکسان است: مردم گیج میشوند. یکی از دلایل آن ناآشنایی است. به گفته الیزابت دوبویس، رئیس دانشگاه در سیاست، ارتباطات و فناوری و دانشیار دانشگاه اتاوا: «یکی از چیزهای کلیدی، سواد دیجیتال از دیدگاه عمومی است. همچنانکه این نوآوریها بیشتر در کمپینها گنجانده میشوند… مردم نیز به طور کلی در مورد آنچه اتفاق میافتد و نحوه نمایش، باسواد میگردند. اما در مراحل اولیه وقوع این آزمایش، بیشترین احتمال وجود دارد که مردم واقعا متوجه نشوند چه اتفاقی در حال رخ دادن است.»
مشکل بسیاری از این فناوریها این است که به جای متقاعد نمودن با استدلال و اطلاعات، جنبه دستکاریکنندهتر (تحریفگر) را توانمند میسازند. کاری که شما انجام میدهید این است که با مردم بهعنوان سوژههایی مستقل و روشنفکر رفتار نمیکنید.
اما رسانههای تحت (نفوذ) دستکاری نیز مهم هستند. رجینا رینی، استاد تحقیقاتی کانادایی در استدلال اجتماعی دانشگاه یورک میگوید: «این ویدئوها با بررسی صوتی و تصویری، انتظارات اجتماعی را در مورد رابطهای که هر دو با حقیقت عینی دارند، افزایش میدهند. از نظر فنی، رباتها چیزهایی را به صورت شفاهی یا با استفاده از متن میگویند. و در حالی که ما معمولاً درک ذاتی داریم که اظهارات شفاهی یا نوشتاری میتواند نادرست، اشتباه یا فریبنده باشد، کمتر تمایل داریم که در مورد رسانههای دیداری و شنیداری شکاک باشیم. همه میدانند که امکان جعل عکسهای سنتی وجود دارد … میدانیم که میتوان با ویدیوها تحریف کرد. اما درجه شک و تردید پیشفرض برای ضبطهای صوتی و تصویری بسیار کمتر بوده است.» هوش مصنوعی مولد در حال تغییر این درک و باور است.
این امکان وجود دارد که معرفی تدریجی ویدیو و صدای دستکاری شده با هوش مصنوعی در گفتمان روزمره، عموم مردم را با آن سازگار کند، همانطور که ما به رباتهای مبتنی بر متن عادت کردیم. از سوی دیگر، اگر تعداد زیادی از افراد برای ارزیابی صحت یک کلیپ ویدیویی یا صوتی نیاز باشد و ما آماده نباشیم، جهنمی برپا خواهد شد.
رینی بهعنوان مثال میگوید: «سناریوی وحشتآمیز این است که اگر قرار باشد یک ویدیوی فریبنده با پیامدهای ژئوپلیتیک قابل توجهی در فضای مجازی پخش شود، چیزی شبیه مکالمه جعلی جو بایدن و ولادیمیر پوتین، که میتواند جنگها را آغاز کند.» اما حتی یک حرکت قطرهچکانی نیز میتواند اساس واقعیت مشترک ما را از بین ببرد. او میگوید: «چیزی که من را میترساند این است که ما به دام آنها نمیافتیم، یا بسیاری از ما به آنان علاقه نداریم. اما آنها یکی یکی در طول زمان ظاهر میشوند و ما دائماً در حال دعوا هستیم که آیا آخرین نمونه از این موارد را باور میکنیم یا نه. در نهایت اثر تجمعی بسیاری از نمونههای کوچک در طول زمان و برخی از موارد بزرگ، باعث میگردد به جایی برسیم که به طور کلی به رسانهها اعتماد نکنیم.»
اگر فکر میکنید این مسئله بعید به نظر میرسد، یک مثال خارج از حوزه سیاسی را در نظر بگیرید.
در ماه مارس، یک کلیپ ویدئویی از چیزی به نام Caba Baba Rave در توییتر پخش شد که توسط حسابهای کاربری راستگرایی مانند Libs of TikTok نیز تقویت گردید.
این ویدیوی وایرال شده، رویدادی را نشان میدهد که در آن اجراکنندگان، نمایشی را برای والدین کودکان بسیار کوچک برگزار میکنند. Caba Baba Rave آن را «نمایش کابارهای طراحی شده برای والدین، با لحظات حسی برای نوزادان» نامیده است. این کلیپ غوغایی به پا کرد، نه فقط به دلیل محتوای آن، بلکه بخاطر ادعای کاملاً جعلی بودن آن. خیلی زود یک گفتمان فرعی مفصل در مورد اینکه آیا کسی این ویدئو را برای بیان یک نکته ایدئولوژیک دستکاری کرده است، به وجود آمد. اما همانطور که کابا بابا ریو تایید کرد، آن ویدیو واقعی بود. با این وجود، برخی از کاربران هنوز آن را باور نمیکردند.
حتی زمانی که کاربران رسانههای اجتماعی متقاعد نشده باشند که ویدیوها دیپفیک هستند یا بهطور دیگری تحت تغییر قرار گرفتهاند، سطوح بررسی دقیق در حال حاضر فقط به خوشخیمترین کلیپها اختصاص داده شده است. بهویژه در TikTok، اشتهای سیریناپذیر برای بحث در مورد صحت ویدیو و صدا قابل مشاهده است. به عبارت دیگر، اینترنت دقیقاً برای نوع مبارزهای که رینی نسبت به آن هشدار میدهد آماده شده است؛ یک جنگ بی پایان فرا شکاکیت.
راه کمتر رایج دیگری وجود دارد که ممکن است در آن به نقطهای برسیم که چارچوب واقعیت فراتر از درک ما منحرف گردد. در حالی که هوش مصنوعی شرایط بحث عمومی آنلاین را تغییر میدهد، به روشهایی که کمتر قابل مشاهده هستند نیز به کار گرفته میشود.
در حال حاضر این امکان وجود دارد که راههای مشاوره عمومی، از جمله رسانههای اجتماعی، مملو از پیامهای تولید شده توسط رباتها باشد، اما هوش مصنوعی سناریوهای بالقوه مؤثرتری را ارائه میکند، که البته نگران کننده نیست.
صحنه سیاسی دوزبانه کانادا ممکن است نوع متفاوتی از فرصت را ارائه دهد – نه برای جعل نامزد، بلکه برای زبان. با دیپ فیک که باعث میشود یک نامزد انگلیسی زبان به زبان فرانسه مسلط گردد.
در اینجا یکی از تحقیقات منتشر شده در ماه فوریه از Nathan E. Sanders (دانشمند داده در مرکز برکمن کلاین در دانشگاه هاروارد) و Bruce Schneier (تکنولوژیست امنیتی در مدرسه کندی هاروارد) مرور میکنیم. یک فعال سیاسی (مثلاً یک شرکت لابی با منابع مالی فراوان) یک برنامه یادگیری ماشینی ایجاد میکند که برای ترسیم شبکه ای از قانونگذاران بر اساس موقعیت، ارشدیت، سطح، روند رأیگیری گذشته، اظهارات یا بسیاری از عوامل دیگر طراحی شده است و به شرکت اجازه میدهد تا تلاشهای لابی خود را بر روی آن دسته از سیاستمدارانی متمرکز کند که پیشبینی می شود بیشترین تأثیر را بر یک استراتژی قانونگذاری معین دارند.
نوعی ابزار که در پادکست به نمایش گذاشته میشود، امکان عجیبتری را ارائه میدهد. شاید شما آن مدل یادگیری ماشینی پیشبینیکننده را در سیستمی پنهان کنید که توانایی تماس با دفتر یک سیاستمدار را دارد و با استفاده از صدای ترکیبی و خودکار، درباره آن قانون گفتگو نماید. و شاید آن صدا بسیار شبیه یکی از اعضای آنها یا نخست وزیر باشد.
سندرز در حین گفتگوی ما پرسید: «چگونه از سوگیری و تحریف روند سیاسی ما جلوگیری میکنید؟ توصیه اساسی ما در آن رژیم این است که مشارکت مردم … و شنیده شدن صدای افراد واقعی را نیز آسانتر کنید.» سندرز خاطرنشان کرد که برخی از ابزارهای هوش مصنوعی در حال حاضر این کار را انجام می دهند، از جمله ابزارهایی مانند «مترجم گوگل»، که ارتباط برخی افراد با نمایندگانشان را با ترجمه پیامها از زبان مبدا به زبان مقصد سادهتر مینماید. (لوکیشن مقاله مربوط به کانادا است و احتمالا منظور ترجمه از فرانسه به انگلیسی و برعکس باشه)
واضح است که فناوری با سیاست بیگانه نیست. دوبوا میگوید: «باید انتظار داشته باشیم که با هر فناوری جدید، مردم تلاش کنند تا دریابند که آیا راهی برای بهتر، مؤثرتر و ارزانتر کردن سیاست وجود دارد یا خیر.» سندرز نیز با اشاره به ابزارهای موجود مانند ادغام نامه (روشی برای ارسال انبوه پیامهای شخصیسازی شده) که سالهاست از جانب احزاب سیاسی و نامزدها مورد استفاده قرار میگیرد، این موضوع را یادآوری مینماید که: «من فکر نمیکنم واقعا تفاوت چندانی باشد بین استفاده از ابزار هوش مصنوعی با تلاشتان برای یافتن سه یا چهار واقعیت در مورد خودتان و سپس ایجاد یه پیام شخصیتر.»
در کانادا، بهطور خاص در قانون انتخابات قوانینی که استفاده از هوش مصنوعی را در طول مبارزات سیاسی دیکته میکند، بیان نشده است. اما آژانس غیرحزبی Elections Canada قوانینی علیه جعل هویت یا نمایندگی نادرست به قصد گمراه کردن دارد. «نشریات گمراهکننده» نیز ممنوع است – این مورد شامل «هر مطلبی، صرف نظر از شکل آن» است که ادعا میکند از طرف رئیس انتخابات، مقامات برگزارکننده یا نامزد سیاسی باشد. به غیر از مواردی که ممکن است مربوط به جعل هویت یا انتشار گمراهکننده باشد، آژانس انتخابات کانادا در ایمیلی اعلام نموده است که «فعالانه در جستجوی دیپفیک، تصاویر و ویدئوهای جعلی نیست.»
اما Elections Canada فقط مربوط به دورههای انتخاباتی است. قانون دولت همه چیز دیگر را پوشش میدهد. با این حال، به نظر نمیرسد که استفاده از هوش مصنوعی برای مقاصد سیاسی در قانون جدید هوش مصنوعی کانادا که در پارلمان در جریان است، ذکر نشده باشد. و پیگیری از دفتر وزیر نوآوری، علم و صنعت که به دنبال توضیح بود، بی پاسخ ماند.
از نظر مارک کوکلبرگ، استاد فلسفه رسانه و فناوری در دانشگاه وین، هوش مصنوعی ممکن است کمک کند که متقاعدسازی معمولی به سوی قلمرو منفیتر متمایل گردد. او میگوید: «سیاستمداران به طور طبیعی سعی میکنند بر ما تأثیر بگذارند، اما مشکل بسیاری از این فناوریها این است که به جای متقاعد نمودن با استدلال و اطلاعات، جنبه دستکاریکنندهتر (تحریفگر) را توانمند میسازند. کاری که شما انجام میدهید این است که با مردم بهعنوان سوژههایی مستقل و روشنفکر رفتار نمیکنید … بلکه با آنها مانند موشهای آزمایشگاهی (یا هر نوع چیز دیگری) رفتار میکنید. سوژههایی که میتوانید در تبادل دادهها با آنها، اقدام به دستکاری نیز نمایید.»
واقعاً این دستکاری تا کجا میتواند پیش برود؟ سیاستمداران و نامزدهای سیاسی در حال حاضر قادرند به رایدهندگان دروغ بگویند. در یکی از پروندههای مطرح اخیر، جورج سانتوس جمهوریخواه اعتراف کرد که رزومهاش، که بر اساس آن برای یک کرسی در مجلس نمایندگان ایالات متحده مبارزات انتخاباتی کرده و برنده شده است، مملو از جعلهایی بود، از جمله درباره تحصیلات و تجربه کاری او. اگر یک انسان واقعی بتواند به این راحتی رأیدهندگان را فریب دهد، آیا یک انسان ساختگی هم میتواند همین کار را بکند؟
سال گذشته، حزب Synthetic، یک حزب دانمارکی که توسط یک گروه هنری و سازمان فناوری تأسیس شد، به دلیل تلاش برای نامزدی که توسط یک ربات چت هوش مصنوعی به نام Leader Lars رهبری میشد، جلب توجه نمود. بالفعل نمودن (عملیاتی شدن) یک نامزد واقعی تولید شده توسط هوش مصنوعی در یک حوزه انتخابی در کانادا، احتمالاً به سطحی از تقلب نیاز دارد. با این حال، سختترین موانع برای پیمایش – شناسایی (فهرست اسناد قابل قبول طولانی است ولی همه آنها نیاز به عکس ندارند) و 150 امضای توصیه شده از ساکنان حوزه انتخابی – غیر قابل حل نیستند. کمپین از طریق رسانههای اجتماعی خواهد بود. مناظرهها را میتوان نادیده گرفت، زیرا گاهی اوقات توسط نامزدهای واقعی انجام میشود. تحت این شرایط، آیا یک نامزد تولید شده توسط هوش مصنوعی میتواند مردم را متقاعد کند که به آن رای دهند بدون اینکه آنها متوجه جعلی بودن آن شوند؟
سندرز معتقد است که یک نامزد کامل هوش مصنوعی موفق نمیشود. او با اشاره به اینکه ما به عنوان یک جامعه میتوانیم قبل از وقوع چنین چیزی جلوی آن را بگیریم، میگوید: «فکر میکنم، به طور کلی، ممکن نیست.»
دوبوا سناریوی محتملتری را پیشنهاد میکند: «محتوای تقلید آمیز، مانند کلیپ جعلی جو بایدن، با ارتباط یک نامزد واقعی اشتباه گرفته میشود.» او میگوید: «میدانیم که وقتی مردم به سرعت پیمایش میکنند، گاهی اوقات گیج میشوند، متوجه برچسب نمیشوند، فکر میکنند واقعا بامزه است، بنابراین به هر حال آن را به اشتراک میگذارند. و به دلیل بازنشر، آنها تبدیل به منبع قابل اعتمادی برای شخص دیگری میشوند، و سپس شخص دیگری آن را میبیند. بنابراین شما میتوانید آن نوع اثر ضربه مدام را تصور کنید.»
رینی میگوید: «فکر میکنم کسی آن را امتحان کند، شاید به عنوان یک شیرین کاری.» موفقیت آن ممکن است وابسته به جغرافیا باشد، مانند یک منطقه روستایی که در آن رأیدهندگان ممکن است کمتر در رویدادهای حضوری شرکت کنند. یا ممکن است فقط به دنبال یافتن فرصت و مهمانی مناسب باشد. اگر یک جایگاه بسیار غیررقابتی را در ایالات متحده هدف قرار داده باشید … و به هر دلیلی که انتخابات مقدماتی مورد رقابت تنگاتنگ قرار نگرفت، [ممکن است] به نتیجه رساندن این امر سخت نباشد.» صحنه سیاسی دوزبانه کانادا ممکن است نوع متفاوتی از فرصت را ارائه دهد – نه برای جعل نامزد، بلکه برای زبان. با دیپ فیک که باعث میشود یک نامزد انگلیسی زبان به زبان فرانسه مسلط گردد. به نوبه خود، کوکلبرگ در مورد احتمال یک نامزد تولید شده توسط هوش مصنوعی مطمئنتر است: «کاملا. این اتفاق خواهد افتاد.»
در واقع، ممکن است نیازی به پنهان کردن آن نباشد. در حدود دو سوم مسیر اپیزود «لحظه والدو» از سریال Black Mirror، یک مدیر تلویزیون (جک)، با خالق انسان و صدای خرس کارتونی (جیمی)، در مورد مشروعیت والدو به عنوان نامزد بحث میکند. جیمی میگوید: «والدو واقعی نیست!» جک پاسخ میدهد: «دقیقا… او واقعی نیست، اما از بقیه واقعیتر است.» جیمی میگوید: «او هیچ چیز را تحمل نمیکند.» جک میگوید: «خب، حداقل او تظاهر نمیکند!»
این احتمال وجود دارد که همه ما در نهایت طرفدار جک شویم و دیگر در مورد اعتقادات سیاسی خود بحث نکنیم، بلکه در مورد اینکه آیا اصلاً میتوانیم چیزی را باور کنیم – چه رسد به اینکه به آن اعتقاد داشته باشیم، بحث کنیم. همچنین این احتمال وجود دارد که ما این بحث را به بحث در مورد واقعیت ترجیح دهیم. به هر حال ممکن است آن را جذابتر بدانیم.
درباره نویسنده:
کالین هورگان؛ نویسنده و متخصص ارتباطات در تورنتو