آیا ممکن است برنامه های فمنیست وجود داشته باشند؟ آیا ممکن است برنامه های فمنیست وجود داشته باشند؟

آیا ممکن است برنامه های فمنیست وجود داشته باشند؟

طراحی سایت زمان مطالعه : ~ 14 دقیقه 3 آذر 1399

در بسیاری از مقالات سال گذشته اشاره شده است که دستیارهای صوتی دیجیتال به صورت پیش فرض یا انحصاری به عنوان زن، جنسیت می شوند. در حالی که برنامه های بانکی و بیمه ای اغلب از صدای مردانه استفاده می کنند، دستیارهای صوتی برای خانه، مانند سیری و الکسا ، زن هستند. هنگام تهیه پخت و پز، با این دستگاه ها صحبت می شود تا دستورالعمل های مورد نیاز را از آنها دریافت کنند. آنها هشدارها را تنظیم می کنند، هوا را بررسی می کنند ، زمان را می گویند و ایمیل می فرستند.  به عبارتی در زندگی ما نقش های دبیری و مدیریت را بازی می کنند. شخصیت های ساخته شده آنها با مفاهیم سنتی خانه داری و مراقبت به عنوان حوزه های زنانه همسو است.

گزارش سازمان ملل که در سال 2019 منتشر شد، گسترش ناگهانی دستیارهای صوتی هوش مصنوعی با شخصیت های زن را مورد بررسی قرار داد و به میزان نگرانی این روند اشاره کرد. طبق این مقاله، دستیارهای صوتی در حال حاضر بیش از 1 میلیارد کار در ماه انجام می دهند ، از تغییر آهنگ به تماس تا خدمات اورژانس. تا سال 2021 پیش بینی می شود تعداد دستیارهای صوتی دیجیتال بیشتر از افراد موجود در کره زمین باشد. گزارش ها بررسی می کنند که چگونه با وجود این جهش های سریع فن آوری دستگاه های هوشمند خانه ما نیز کاملاً قدیمی شده اند.
در پاسخ به زنانه شدن نگران کننده دستیارهای صوتی در جریان اصلی ، تعداد طراحان فزاینده ای در حوزه دیجیتال مشغول کار بر روی پروژه هایی هستند که رویکرد ظریف تری به موضوع جنسیت و فناوری صدا می دهند . آنچه در این پروژه ها مشترک است ، تلاش برای گسترش این مفهوم در آینده است.

صدا چیست؟

شیب قهوه ای، بنفش ، بژ و صورتی صفحه را پر می کند ، در حالی که یک حباب شفاف در مرکز آن معلق است ، مانند برخی از موجودات بیولوژیکی از زیر دریا به آرامی شکل می گیرد و می لرزد. می گوید: "سلام ، من Q هستم" صدایی مبهم و اروپایی رنگ ، ظاهراً از حباب به هنگام جهش و لرزش هماهنگ و اولین دستیار صوتی بدون جنسیت در جهان شکل گرفته است. به عنوان مثال به سیری یا الکسا فکر کن ، اما نه مرد و نه زن.  برای راه اندازی Q در سال 2019 ، صدایی که برای افزایش آگاهی از تعصب جنسیتی در دستیاران هوش مصنوعی طراحی شده است.

صدا چیست؟

ظاهراً مردم بیشتر از دستگاههایی با صدای انسان استفاده می کنند. به گفته آمازون و اپل ، در عین حال ، آنها در دریافت کمک از صداهای زنانه راحت ترند. شرکت های فناوری می خواهند تجربه کاربری مشتری تا حد ممکن روان و بدون اصطکاک باشد، بنابراین بعید است که به زودی هنجارهای جنسیتی را برانداز کنند. تمایل دارند که صدای زن را به گوش ما برسانند تا بتوانیم مشکلات خود را حل کنیم. می خواهیم فناوری به ما کمک کند، اما رئیس آن باشیم، بنابراین به احتمال زیاد ما یک رابط زنانه را انتخاب می کنیم.

گوش دادن به این صدا آرامش بخش و دلپذیر است. این یک صدای بسیار انسانی ایجاد می کند ، و از طرفی صدایی که با یک جنسیت باینری توصیف شود بسیار دشوار شنیده می شود. این موضوع توسط آژانس خلاق Vice ، با مشارکت کپنهاگ پراید ، در کنار تیمی از محققان ، طراحان صدا و زبان شناسان از طیف های مختلف جنسیت و زمینه ها ایجاد شده است. برای ایجاد Q ، صدای تعدادی از افراد در طیف جنسیتی مختلف ضبط شده، و سپس طراح صدا با صدای صفر که در وسط آنچه به طور کلی مردانه یا زنانه تلقی می شود ، صدایی را ایجاد نمود. این نقطه بین 145 تا 175 هرتز قرار دارد. بالاتر از این عدد صدا معمولاً زنانه تلقی می شود و پایین تر از آن تمایل دارد که به عنوان صدای مردانه شنیده شود. با کشیدن حباب به بالا و پایین می توانید خودتان آن را در این تعامل امتحان کنید.

رایان شرمن می گوید: "ما چند نوع صدا را از طریق Vice آزمایش کردیم . به مردم مقیاس 1-5 دادیم و از آنها پرسیدیم این صدا را با چه جنسیتی نسبت می دهند؟ ما این کار را ادامه دادیم تا جایی که 50 درصد مردم نتوانستند در مورد جنسیت تصمیم بگیرند، در نهایت 26 درصد گفتند که مرد است و 24 درصد گفتند زن است. هدف ما این بود که افراد نتوانند به درستی تشخیص دهند که این صدا برای چه جنسیتی است.

تعصبات موجود در متن

تصور Q به عنوان صدای یک دستگاه هوشمند یک آزمایش فکری جذاب است زیرا دستگاههایی که توسط Q بیان می شوند می توانند به کاربران کمک کنند که جنسیت یک طیف باشد. با این وجود صدا فقط یک جنبه طراحی کاربر برای دستیاران صوتی است. فراتر از صدا، روش های بالقوه بیشتری وجود دارد که طراحان و مهندسان می توانند تعصب را به یک دستیار صوتی AI رمزگذاری کنند.

موتورهای هوش مصنوعی و دستیارهای پیشرو صوتی یاد می گیرند که چگونه با استخراج مخازن مکالمه ای که توسط تیم های مختلفی از افراد به منظور ایجاد احساس در انسان تولید شده اند، صحبت کنند. این تیم های خلاق غالباً به صورت گسترده ای پشتیبانی می شوند، تا بتوانند هوش مصنوعی را به روشی آشنا بیان کنند. در اکثر موارد، مانند الکسا و همراهان پر سر و صدا او نوعی هوش مصنوعی ضعیف به کار می رود، که آنچه ماشین ها می گویند را توسط تیمی از انسان ها می نویسند، به جای اینکه، توسط تکنیک های یادگیری ماشین تولید شوند . هنگام مقایسه اسکریپت های الکسا ، سیری ، کورتانا و دستیار گوگل، مضامین واضح ظاهر می شوند: هر چهار اسکریپت، شخصیتی مطیع دارند. آنها با صدایشان چهره ی یک مادر و یا کودکی را به ذهن می آورند که کاربران را گول می زنند. گرچه شخصیت یک ربات می تواند کلیشه ای و جنسیتی باشد ، اما ترکیبات لازم برای آموزش ماشین های هوش مصنوعی نیز می تواند تاثیرگذار باشد. مشهورترین نمونه آن Tay از مایکروسافت بود، یک ربات مصنوعی توییتر که شروع به ارسال توییت های نژادپرستانه و جنسیتی کرد.

در سال 2019 ، یک سازمان غیر انتفاعی The Feminist Internet یک  روبات ایجاد کرد که به کاربران در مورد سوگیری AI آموزش میداد. این یک هوش مصنوعی نبود، اما نحوه نگارش آن یک مدل مفید برای تفکر در مورد رمزگذاری هوش مصنوعی با اصول خاص است. نام آن F'xa است ، نمایشنامه ای در الکسا ، اما این chatbot به کارهای داخلی کمک نمی کرد. استفاده از آن آموزشی است و لحن آن با عبودیت موجود در اکثر رابط های گفتگو مطابقت ندارد. F'xa فمینیستی نیست به این معنا که خود را به عنوان یک فمینیست معرفی می کند ، یا با "شخصیت" فمینیستی ارائه شود. فقط با رعایت اصول فمینیستی ساخته شده است، بنابراین از منظر فمینیستی به موضوع سوگیری AI نزدیک می شود.

وقتی F'xa تعریفی را برای "هوش مصنوعی" به کاربر خود ارائه می دهد، تعدادی از تعاریف را از صداهای متنوع موجود در این زمینه بیرون می آورد که در مکالمات غالب هوش مصنوعی کمتر دیده می شوند. اگر از "AI" گوگل استفاده می کنید، یا از الکسا می خواهید شما را راهنمایی کند، تعریفی که از آن ارائه می شود غالباً از ویکی پدیا است که تعصبات جنسیتی خاص خود را دارد .وقتی F'xa تعریفی از فمینیسم ارائه می دهد، می گوید که "فمینیسم برای مردم معانی مختلفی دارد" ، برخلاف سیری ، این تعریف را از جستجوی برتر گوگل ارائه می دهد. با اذعان به تعدد دیدگاه ها، تیم F'xa فلسفه بنیادی متقاطع و فمینیستی خود را به روشی ظریف در chatbot رمزگذاری کرده است.

سیستم صوتی هوش مصنوعی

عملکردهای مشترک مفید

امروزه از دستیارهای دیجیتال بیشتری برای انجام مجموعه خاصی از وظایف استفاده می شود. کلمات بیداری - مانند "OK Google" یا "Hey Siri" - توسط کاربر به منظور طرح سوال، بررسی آب و هوا ، پخش جریانی موسیقی یا تنظیم زنگ هشدار ، توسط زبان کاربر بیان می شوند. این کلمات بیداری، معمولاً هنگامی گفته می شود که کاربر در حال آشپزی یا تماشای تلویزیون یا خوابیدن است ، گفته می شود دستیاران دیجیتال نقش منشی را بازی می کنند. آمازون عملکرد دیگری را که به طور معمول توسط دستیارهای دیجیتال انجام می شود به لیست کارمندان اضافه کرده است: با دوربین داخلی ، به کاربران خود می گوید که چگونه به نظر می رسند و به مردم کمک می کند مانند بهترین دوست خرید کنند.

صدای این دستگاه ها به دلیلی تسکین دهنده ، زنانه و تهدیدآمیز است. شخصیت های زنانه آنها اضطراب هایی را که ممکن است یک مصرف کننده در اطراف AI یا دستیارهای مجازی داشته باشد ، تسکین می دهد. از آنجا که ما از این دستگاه ها در خانه های خود استقبال می کنیم، آنها همچنان به نفوذ خود و جمع آوری داده ها ، در زمینه های بیشتری از زندگی خصوصی ما گسترش می یابند. تخمین زده شده است که بیش از 15 میلیون خانه در ایالات متحده بیش از سه بلندگوی هوشمند در خانه خود دارند. هدف الکسا در نهایت دو برابر این مقدار است، که به نفع کاربر و سازنده آن است: این کار به انجام کارهای روزمره کمک می کند، اما همچنان ما را به خرید تشویق می کند، در حالی که اطلاعات آمازون را در مورد موارد مورد علاقه و دوست نداشتنی ما تغذیه می کنند.
حتی اگر الکسا با صدای متفاوتی صحبت کند ، یا شخصیتی متفاوت برای یادگیری داشته باشد ، عملکرد آن به عنوان یک محصول با در نظر گرفتن اصول فمینیستی ساخته نشده است  و این موضوع بسیار اشتباه است. همانطور که اخبار اخیر نشان داده است ، به عنوان محصولی که به فناوری های روز دنیا متصل است ، می تواند سو استفاده خانگی و تعقیب را تشدید کند.

آیا می توان این فناوری ها را با تمرکز کمتری روی مصرف ، جمع آوری داده ها و نظارت طراحی کرد؟ آیا طراحان می توانند طیف وسیعی از موضوعات یا ظرفیت های یک دستیار را در قبال پروژه های کاملاً سودمند گسترش دهند؟ دکتر شارلوت وب ، یکی از بنیانگذاران اینترنت فمینیسم، می گوید: "ما سال گذشته تصمیم گرفتیم کارگاهی در مورد ایده الکسای فمنیست برگزار کنیم." "ایده نگاه کردن به آنچه از این فضای سازمانی وجود دارد ، با یک لنز فمینیستی ، چیزی نیست که در پایان اتفاق افتاد. از آنجا که الکسا به شدت به سمت یک فضای داخلی گرایش دارد و شخصیتش به آن مکان خاص متصل است، این مقاله در مورد مکان یابی مجدد هدف آنچه یک دستیار فمینیست می تواند باشد، انجام شد.

هوش مصنوعی از نمایش های انسانی تقلید می کند

اشتاینبروک در حال بررسی چگونگی ساختارشکنی در روایت هایی است که هوش مصنوعی را با هوش انسان موازی می کند. اشتاینبروک به جای این که بپرسد چگونه تکنولوژی جنسیتی را با در نظر گرفتن اصول فمنیستی در نظر بگیریم ، می پرسد که چرا ما در وهله اول حتی فناوری را شخصیت پردازی و جنسیت بندی می کنیم؟

ربات های هوش مصنوعی

اشتاینبروک می گوید: "شخصیت و جنسیت در دستیارهای صوتی چیزی نیست که به دلیل ماهیت" سیستم های هوش مصنوعی "پدیدار شود ".این عمدا بر اساس منطق تقاضای بازار ، تعصبات جنسیتی و روایت های غیرواقعی رایج در مورد هوش مصنوعی ایجاد شده است". او شخصیت دستیارهای صوتی را با اسكوومورفیسم مقایسه می كند: هر دو محصولات را در نمایش هایی كه از سازوكارهای مختلف تقلید می كنند می پیچند و بنابراین منطق زیربنایی آنها را پنهان می كنند. در مورد دستیارهای صوتی، تقلید از یک انسان واقعی است. 

همانطور که Google Duplex صریحاً گفته است ، سرویسی که از هوش مصنوعی برای تماس با رستوران ها و رزرو با صدای انسان استفاده می کند ، هنگام ایجاد صداهای ترکیبی با معضلات اخلاقی جدید روبرو می شوند و مردم را به تصور اینکه با آنها صحبت می کنند فریب می دهند. اشتاین بروک پیشنهاد می کند که بنابراین باید بر "هوش مصنوعی خام" یک محصول تمرکز کنیم. این می تواند به معنای: "تلاش برای محو کردن مرزهای بین انسان و ماشین نباشد، بلکه در عوض برجسته کردن قابلیت ها و محدودیت های متمایز یادگیری ماشین است که از فناوری پشتیبانی می کند. پرهیز از ضمیر اول شخص در خروجی زبان، ایجاد یک صدای جدید مجزا برای صداهای ترکیبی آنها از انسانها به نظر خوشایند می آید.

استینبروک پس از ساختارشکنی در روایت های موازی با هوش مصنوعی و هوش انسانی در کارگاه های خود ، شرکت کنندگان را وادار می کند که نمایشی جایگزین برای دستیارهای صوتی فراتر از انسان، تصور کنند. اخیراً در یک کارگاه آموزشی در جشنواره اینترنت و فناوری در لندن، یک تیم ایده ی کوه برای دستیار صوتی AI را ارائه داد.

"شما ممکن است بگویید: اما هوش مصنوعی خام نیست زیرا یک روایت است که در اطراف فناوری واقعی قرار دارد!" استینبروک می گوید. "اما من فکر می کنم این روایت متفاوت است ، زیرا به اندازه کافی دور از حقیقت است ، آنیمیسم آگاهانه و بازیگوشانه است. ما می دانیم که با یک موجود واقعی صحبت نمی کنیم ، اما می توانیم چنین کاری را تصور کنیم." در حال حاضر برخی از دستیارهای صوتی غیرانسانی نیز در بازار وجود دارند ، مانند یک بلندگوی هوشمند که یک جفت چشم کارتونی بر روی صفحه نمایش آن حرکت می کند و صدای کارتونی را از بلندگوهای خود منتشر می نماید تا به سوالات کاربران خود پاسخ دهد.

هرچه بیشتر فناوری هوش مصنوعی را در زندگی روزمره خود ادغام کنیم، از تشخیص اعتراض در برنامه ها گرفته تا تشخیص گفتار در تلفن ها، مردم از این زمینه شناخت کسب می کنند، امیدوارم که شخصیت پردازی به یک حواس پرتی تبدیل شود. اگر می خواهیم از هنجارهای جنسیتی قرن بیستم خلاص شویم، پس باید از چشم اندازهای قرن بیستم درباره نقش فناوری در زندگی نیز دور شویم. به طور خلاصه، دور از انجام وظایف روزانه، آیا فناوری های هوشمند و گفتگوهای مصنوعی می توانند در زندگی ما خارج از مصرف، نقش هایی را اشغال کنند و به روشی صحبت کنند که به ما درباره پیچیدگی دنیا اطلاعات دهند؟ یا آیا آنها می توانند نقش یک همراه راحت را به خود اختصاص دهند؟

صفحات مشابه

ارسال نظر
توجه داشته باشید، درج اطلاعات "ایمیل" ، "وبسایت" و "شماره تماس" اختیاری بوده و به هیچ وجه منتشر نخواهد شد. این اطلاعات صرفا جهت پاسخگویی در موارد نیاز استفاده می شوند.