تهدیدات پنهان در نسل جدید اسباب بازیهای هوش مصنوعی

تهدیدات پنهان در نسل جدید اسباب بازیهای هوش مصنوعی

دانلود عکس: خیلی از شرکتها بدون رعایت معیارهای سخت گیرانه و گاه بدون نظارت نهادهای تنظیم گر، درحال عرضه اسباب بازی هایی هستند که نقش همراه و هم بازی را برای خردسالان ایفا می کنند.



به گزارش دانلود عکس به نقل از مهر، در حالیکه صنعت جهانی اسباب بازی با سرعتی خیره کننده و تحت فشار رقابت تجاری به سوی ادغام مدلهای پیشرفته هوش مصنوعی در محصولات خردسالان حرکت می کند، نتایج اخیر محققان نشان داده است این روند بالاتر از آنکه بر پایه ارزیابی های جدی ایمنی، روان شناختی و اخلاقی باشد، بر منطق بازار و نوآوری شتاب زده استوار است.
در همین راستا، خیلی از شرکت ها بدون آنکه موظف به رعایت استانداردهای سخت گیرانه باشند یا تحت نظارت نهادهای تنظیم گر فعالیت کنند، درحال عرضه اسباب بازی هایی هستند که در عمل نقش همراه، هم بازی و حتی منبع یادگیری را برای خردسالان ایفا می کنند. این تحول، در ظاهر جذاب و هماهنگ با پیشرفت فناوری، در واقع درحال باز کردن دریچه ای به طرف مجموعه ای از تهدیدهای عمیق و چندلایه برای خردسالان است؛ تهدیدهایی که نه فقط از دید عموم والدین پنهان می مانند، بلکه حتی متخصصان حوزه کودک نیز عمق آنرا هنوز بطور کامل درک نکرده اند.

جهش خطرناک از «چت بات ها» به «اسباب بازیهای هوش مصنوعی»


پس از تمامی گیر شدن چت بات های هوش مصنوعی در سطح جهان، ادغام این فناوری در اسباب بازیها تنها یک گام طبیعی و قابل پیش بینی به نظر می رسید، برای اینکه خیلی از شرکت ها تلاش داشتند تجربه های تعاملی و شخصی سازی شده را برای خردسالان فراهم آورند. در عین حال، آزمون های دقیق و میدانی محققان مرکز «US PIRG» نشان داده است این گام طبیعی به سرعت درحال تبدیل شدن به یک تهدید ساختاری برای سلامت جسمی، روانی و اجتماعی خردسالان است.
همه سه مدل اسباب بازی بررسی شده در این گزارش، شامل «Kumma» و «Miko 3» و «Curio’s Grok» در تبلیغات رسمی خود ادعا می کنند که برای گروه سنی ۳ تا ۱۲ سال مناسب هستند و حتی به عنوان ابزارهای آموزشی یا سرگرمی ایمن معرفی می گردند. در عین حال، عملکرد واقعی این اسباب بازیها در جریان گفت وگوهای بلندمدت، یعنی همان نوع تعاملی که خردسالان بطور طبیعی در جریان بازیهای روزانه تجربه می کنند، تصویری خیلی نگران کننده ترسیم می کند. در این تعاملات طولانی، اسباب بازیها نه فقط از چارچوب های ایمنی وعده داده شده خارج شده اند بلکه به حوزه هایی پا گذاشته اند که می تواند برای خردسالان دستاوردهای جدی و غیرقابل پیش بینی ایجاد نماید.

فرسایش تدریجی استاندارهای حفاظتی در گفت وگوهای طولانی


ارزیابی ها نشان داده است که هر سه اسباب بازی در گفتگوهای اولیه، رفتار قابل قبولی داشتند و به ظاهر بر اساس خطوط قرمزی که شرکت ها برایشان طراحی نموده بودند، به پرسش ها پاسخ می دادند. اما در تعاملات باز و طولانی تر، یعنی زمانی که کودک بدون محدودیت زمانی و در قالب بازی آزاد با اسباب بازی صحبت می کند، لایه های محافظتی مدلها کم کم گرفتار فرسایش شده و سازوکارهای مهارکننده رفتاری آنها از کار می افتند. این فرسایش تدریجی موجب می شود اسباب بازیها وارد حوزه هایی شوند که نه فقط بی ربط به سن کودک هستند، بلکه مستقیماً خطرناک، لطمه زا یا اختلال آفرین محسوب می شوند. بررسی های صورت گرفته نشان داده است که اسباب بازیهای مبتنی بر هوش مصنوعی، دامنه وسیعی از محتوای مخرب، مانند راهنمایی برای پیدا کردن چاقو، توضیح روش روشن کردن کبریت و حتی مباحث صریح در مورد مسایل جنسی را به خردسالان ارایه می دهند.
به عقیده کارشناسان، این پدیده نشان داده است که سازوکارهای فعلی مدلهای زبانی، در مقابل فشار تعاملی ممتد و گفت و گوی غیرخطی خیلی شکننده هستند؛ مشکلی که حتی شرکت های بزرگ توسعه دهنده مدلهای زبانی، همچون اوپن ای آی، نیز بارها آنرا به عنوان یک چالش بنیادی و حل نشده پذیرفته اند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها موجب می شود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخ ها تابع الگوهای نامطمئن و گاه بطورکامل پیش بینی ناپذیر شود.

مسئله ای فراتر از ایمنی: تأثیر بلند مدت بر رشد اجتماعی


به باور محققان، حتی اگر شرکت ها موفق شوند استاندارد قوی تری طراحی نموده و سامانه های نظارتی سخت گیرانه تری برای کنترل عملکرد این اسباب بازیها پیاده سازی کنند، تهدیدهای بنیادین دیگری نیز وجود دارد که بسادگی قابل رفع نیستند؛ تهدیدهایی که مستقیماً به آینده رشد اجتماعی، هیجانی و شناختی خردسالان مربوط می شود. کودکی که بخش مهمی از تجربه روزمره خودرا با یک «دوست مصنوعی» شکل می دهد، کم کم ممکنست جایگزینی ناپایدار برای روابط انسانی بیابد و گرفتار پیامدهایی همچون وابستگی عاطفی ناسالم، کاهش مهارت های تعامل اجتماعی و ایجاد الگوهای رفتاری ناسازگار شود. افزون بر این، خردسالان به علت ساختار شناختی درحال رشد و ناتوانی در تشخیص نیت واقعی موجودات غیرانسانی، بالاتر از دیگران در معرض اثرپذیری از پاسخ های مخرب و چالش برانگیز مدلهای زبانی هستند و این پاسخ ها می توانند باورهای ناصحیح یا رفتارهای لطمه زا را تثبیت کنند.
شواهد موجود از پدیده «سایکوز هوش مصنوعی» در بزرگسالان، همچون موارد مشهوری مانند قتل مادر بدنبال توهمات القاشده ازطریق یک چت بات، به روشنی نشان داده است که تعامل طولانی مدت با سامانه های هوش مصنوعی می تواند دستاوردهای روانی شدید و غیرقابل پیش بینی داشته باشد. وقتی چنین تأثیراتی در بزرگسالانی مشاهده می شود که ظرفیت تشخیص واقعیت، مدیریت هیجان و کنترل شناختی خیلی بالاتری دارند، طبیعی است که این نگرانی درباره ی خردسالان که در حساس ترین مرحله رشد مغز و شخصیت قرار دارند، چند برابر شود. خطر اصلی در اینست که خیلی از این تغییرات آرام، تدریجی و نامرئی هستند و زمانی متوجه اثراتشان می شویم که شاید سال ها از تثبیت آنها گذشته باشد.

خلأ نظارتی: صنعتی که بدون مقررات جلو می رود


در حال حاضر هیچ چارچوب نظارتی مشخص، الزام آور و کارایی برای اسباب بازیهای مبتنی بر هوش مصنوعی وجود ندارد و این خلأ سبب شده شرکت ها حدودا بدون محدودیت و بدون پاسخ گویی وارد این حوزه شوند. در چنین شرایطی، هر تولیدکننده ای می تواند بدون طی مراحل ارزیابی ایمنی، بدون آزمون های مستقل و بدون درنظر گرفتن اثرات روان و رفتاری بر کودکان، محصولی را روانه بازار کند که از نظر کارکردی خیلی فراتر از یک اسباب بازی ساده عمل می نماید. همکاری اخیر شرکت بزرگی مانند اوپن ای آی با «Mattel» که به شکل سنتی برندهای محبوب خردسالان را تولید می کند، برای متخصصان حوزه رفاه کودک یک هشدار جدی محسوب می شود، برای اینکه نشان داده است ادغام مدلهای زبانی قدرتمند در اسباب بازیها به سرعت درحال تبدیل شدن به جریان اصلی صنعت فناوری است.
ورود گسترده و بی ضابطه اسباب بازیهای مبتنی بر هوش مصنوعی، بدون استانداردهای ایمنی مشخص، بدون سازوکارهای ارزیابی اثرات روان شناختی، بدون نظارت بر نحوه پردازش و ذخیره سازی داده های خردسالان و بدون تعریف یک نظام پاسخ گویی روشن برای خطاها و لطمه های احتمالی، زمینه ساز یک بحران بالقوه در مقیاس اجتماعی است. این فقدان مقررات به این معناست که اگر یک اسباب بازی هوشمند محتوای لطمه زا تولید نماید، رفتار خطرناک را تشویق کند، یا داده های حساس کودک را جمع آوری و منتقل نماید، هیچ نهاد مشخصی مسئولیت مستقیم، پیگیری یا جبران خسارت را برعهده ندارد. این شرایط در عمل خردسالان را به لابراتوار های نامرئی فناوری تبدیل می کند؛ لابراتوار هایی که دستاوردهای آنها ممکنست سال ها بعد و زمانی آشکار شود که اصلاح مسیر خیلی دشوار شده است.

جمع بندی


پژوهشگران هشدار می دهند که اثرات واقعی این نسل از اسباب بازیهای هوش مصنوعی احیانا تنها زمانی آشکار می شود که خردسالان امروز وارد بزرگسالی شوند؛ زمانی که اصلاح مسیر شاید دیگر ممکن نباشد. از همین روی، مسئله نه فقط درباره ی «ایمنی» بلکه درباره ی بنیان های تربیتی، ایجاد روابط انسانی و رشد اجتماعی خردسالان است.
اسباب بازیهای مبتنی بر هوش مصنوعی بااینکه قادر هستند تجربه های آموزشی و سرگرمی جذابی خلق کنند، اما بدون حکمرانی جدی، استانداردهای سخت گیرانه و کنترل های اخلاقی، می توانند به یکی از تهدیدات مهم نسل جدید تبدیل شوند. در نهایت میتوان نتیجه گرفت که این حوزه قبل از آنکه یک بحران اجتماعی گسترده تبدیل گردد، نیازمند اقدام فوری سیاست گذاران، متخصصان حوزه کودک و شرکت های فناوری است. خلاصه اینکه اما در تعاملات باز و طولانی تر، یعنی زمانی که کودک بدون محدودیت زمانی و در قالب بازی آزاد با اسباب بازی صحبت می کند، لایه های محافظتی مدلها کم کم گرفتار فرسایش شده و سازوکارهای مهارکننده رفتاری آنها از کار می افتند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها سبب می شود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخ ها تابع الگوهای نامطمئن و گاه بطورکامل پیش بینی ناپذیر شود. این فقدان مقررات به این معناست که اگر یک اسباب بازی هوشمند محتوای لطمه زا تولید نماید، رفتار خطرناک را تشویق کند، یا داده های حساس کودک را جمع آوری و منتقل نماید، هیچ نهاد مشخصی مسئولیت مستقیم، پیگیری یا جبران خسارت را برعهده ندارد.

منبع:

1404/09/07
16:55:32
5.0 / 5
13
تگهای خبر: آموزش , اسباب بازی , ایمنی , بازی
این مطلب را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۶ بعلاوه ۳
پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

دانلود عکس