پیشرفت هوش مصنوعی انسان محور: به روز رسانی در مورد تحقیقات هوش مصنوعی مسئول
به سایت آموزشی میتوانید خوش آمدید، درضمن اگر برای کسب و کار به جذب مشتری نیاز دارید پیشنهاد میکنیم روی سایت تبلیغات کلیک کنید تا بزرگترین سایت تبلیغات ایران بشوید.
پیشرفت هوش مصنوعی انسان محور: به روز رسانی در مورد تحقیقات هوش مصنوعی مسئول
یادداشت سردبیر: همه مقالاتی که در اینجا به آنها ارجاع داده می شود نشان دهنده همکاری در سراسر مایکروسافت و در سراسر دانشگاه و صنعت است که شامل نویسندگانی می شود که به Aether، Microsoft کمک می کنند. نهاد مشاوره داخلی برای اخلاق و اثرات هوش مصنوعی در مهندسی و تحقیقات.
-
کلاس
ویدئورویکرد انسان محور به هوش مصنوعی
هوش مصنوعی، مانند همه ابزارهایی که میسازیم، بیانگر خلاقیت انسان است. مانند تمام بیان خلاق، هوش مصنوعی دیدگاه ها و ارزش های سازندگان خود را نشان می دهد. موضعی که انعکاسی را در میان شاغلین هوش مصنوعی تشویق میکند، گامی به سوی اطمینان از اینکه سیستمهای هوش مصنوعی انسان محور هستند، توسعه یافته و با منافع و رفاه افراد و جامعه در جلو و مرکز هستند. این تمرکز دانشمندان و مهندسان پژوهشی وابسته به Aether، نهاد مشاوره برای رهبری مایکروسافت در زمینه اخلاق و اثرات هوش مصنوعی. محور کار اتر این سوال است که ما هوش مصنوعی را برای چه کسی ایجاد می کنیم – و اینکه آیا ما هوش مصنوعی را برای حل مشکلات واقعی با راه حل های مسئولانه ایجاد می کنیم. با تسریع قابلیتهای هوش مصنوعی، محققان ما برای درک مفاهیم اجتماعی و فنی تلاش میکنند و راههایی برای کمک به پزشکان روی زمین برای تجسم و تحقق این قابلیتها در راستای اصول هوش مصنوعی مایکروسافت.
موارد زیر نگاهی اجمالی به تحقیقات سال گذشته برای پیشرفت هوش مصنوعی مسئول با نویسندگانی از Aether است. در سرتاسر این کار، درخواستهای مکرر برای بازتاب در فرآیندهای متخصصان هوش مصنوعی وجود دارد – یعنی خود اندیشی برای کمک به ما برای دستیابی به وضوح در مورد اینکه برای چه کسی سیستمهای هوش مصنوعی را توسعه میدهیم، چه کسانی سود میبرند و چه کسانی ممکن است به طور بالقوه آسیب ببینند – و برای ابزارهایی که کمک میکنند. تمرینکنندگانی که کار سختی برای کشف مفروضاتی دارند که ممکن است مانع از پتانسیل هوش مصنوعی انسان محور شود. تحقیقی که در اینجا مورد بحث قرار میگیرد همچنین مؤلفههای حیاتی هوش مصنوعی مسئول را بررسی میکند، مانند شفاف بودن در مورد محدودیتهای فناوری، احترام به ارزشهای افرادی که از فناوری استفاده میکنند، توانمندسازی آژانس انسانی برای کار تیمی بهینه انسان و هوش مصنوعی، بهبود تعامل مؤثر با هوش مصنوعی، و توسعه ارزیابی مناسب. و تکنیکهای کاهش ریسک برای مدلهای یادگیری ماشین چندوجهی (ML).
در نظر گرفتن اینکه سیستم های هوش مصنوعی برای چه کسانی هستند
نیاز به پرورش دیدگاههای گستردهتر و به نفع جامعه، تأمل در مورد اینکه چرا و برای چه کسی هوش مصنوعی را ایجاد میکنیم، نه تنها مسئولیت تیمهای توسعه هوش مصنوعی بلکه بر عهده جامعه تحقیقاتی هوش مصنوعی است. در مقاله “ML واقعی: شناخت، کاوش، و بیان محدودیتهای تحقیقات یادگیری ماشین، نویسندگان خاطرنشان میکنند که انتشارات یادگیری ماشین اغلب یک سوگیری نسبت به تاکید بر پیشرفت هیجان انگیز، که تمایل به انتشار انتظارات گمراه کننده در مورد هوش مصنوعی دارد. آنها بر محدودیتهای تحقیقات ML تاکید دارند تا شفافیت در مورد تعمیمپذیری یافتهها و تأثیر بالقوه آن بر جامعه را افزایش دهد – در نهایت، تمرینی برای بازتاب در مورد اینکه ما هوش مصنوعی را برای چه کسی ایجاد میکنیم. این مقاله مجموعهای از فعالیتهای هدایتشده را ارائه میکند که برای کمک به بیان محدودیتهای تحقیقاتی طراحی شدهاند، تشویق جامعه تحقیقاتی یادگیری ماشین به سمت یک رویه استاندارد شفافیت در مورد دامنه و تأثیر کارشان.
خوانایی
راهنمای آموزشی و کاربرگ REAL ML را مرور کنید که به محققان کمک میکند محدودیتهای تحقیق خود را تعریف کنند و پیامدهای اجتماعی را که این محدودیتها ممکن است در استفاده عملی از کارشان داشته باشند، شناسایی کنند.
با وجود بسیاری از سازمانها که اصولی را برای هدایت توسعه و استقرار مسئولانه هوش مصنوعی تدوین میکنند، یک نظرسنجی اخیر نشان میدهد که فاصله بین ارزش های اولویت بندی شده توسط پزشکان هوش مصنوعی و ارزش های عموم. این نظرسنجی که شامل نمونه ای نماینده از جمعیت ایالات متحده بود، نشان داد که شاغلان هوش مصنوعی اغلب نسبت به عموم مردم به ارزش های مرتبط با هوش مصنوعی مسئول اهمیت کمتری می دهند. این سؤال را مطرح میکند که ارزشهای چه کسی باید به سیستمهای هوش مصنوعی کمک کند و توجه را به سمت در نظر گرفتن ارزشهای افرادی که برای آنها طراحی میکنیم معطوف میکند و هدف آنها سیستمهای هوش مصنوعی است که بهتر با نیازهای افراد همسو هستند.
مقالات مرتبط
ایجاد هوش مصنوعی که آژانس انسانی را توانمند می کند
حمایت از آژانس انسانی و تأکید بر شفافیت در سیستمهای هوش مصنوعی، رویکردهای اثبات شده برای ایجاد اعتماد مناسب با افراد سیستم ها برای کمک طراحی شده اند. در کار تیمی انسان-هوش مصنوعی، ابزارهای تجسم تعاملی می توانند افراد را قادر سازند تا از تخصص حوزه خود استفاده کنند و به آنها اجازه دهند به راحتی مدل های پیشرفته را ویرایش کنند. برای مثال، پزشکان با استفاده از GAM Changer میتوان مدلهای پیشبینی خطر برای ذاتالریه و سپسیس را ویرایش کرد تا دانش بالینی خود را ترکیب کند و تصمیمات درمانی بهتری برای بیماران اتخاذ کند.
مطالعه ای در مورد چگونه هوش مصنوعی می تواند ارزش مشارکت های دانش-شهروندی در حال رشد را بهبود بخشد نشان داد که تأکید بر عامل انسانی و شفافیت باعث افزایش بهره وری در یک گردش کار آنلاین می شود که در آن داوطلبان اطلاعات ارزشمندی را برای کمک به هوش مصنوعی ارائه می دهند. طبقه بندی کهکشان ها شرکتکنندگان هنگام انتخاب استفاده از گردش کار جدید و دریافت پیامهایی که تاکید میکردند کمکهای انسانی برای کارهای دشوار طبقهبندی ضروری است، کارآمدتر بودند، بدون اینکه کیفیت ورودیشان را به خطر بیندازند و اغلب به داوطلب شدن بازمیگشتند.
شکستها در هوش مصنوعی اجتنابناپذیر هستند، زیرا هیچ مدلی که با دنیای فیزیکی در حال تغییر تعامل داشته باشد، نمیتواند کامل باشد. ورودی و بازخورد انسانی برای کاهش خطرات ضروری است. پژوهشگران مشکل عوارض جانبی منفی (NSEs)، رفتار نامطلوب این سیستم ها را رسمیت می بخشد. محققان چارچوبی را آزمایش کردند که در آن سیستم هوش مصنوعی از کمک فوری انسانی در قالب بازخورد استفاده میکند – چه در مورد تحمل کاربر برای یک رویداد NSE یا تصمیم آنها برای اصلاح محیط. نتایج نشان میدهد که سیستمهای هوش مصنوعی میتوانند برای کاهش موفقیتآمیز NSE از بازخورد سازگار شوند، اما در میان ملاحظات آینده، چالش توسعه تکنیکهایی برای جمعآوری بازخورد دقیق از افراد استفادهکننده از سیستم وجود دارد.
هدف بهینه سازی مکمل انسان-هوش مصنوعی اهمیت مشارکت دادن آژانس انسانی را برجسته می کند. در مطالعهای در مقیاس بزرگ که بررسی میکند چگونه سوگیری در مدلها بر تصمیمات انسانها تأثیر میگذارد در کار استخدام، محققان به کشف شگفتانگیزی دست یافتند: هنگام کار با یک شبکه عصبی عمیق جعبه سیاه ( DNN) سیستم توصیهکننده، افراد بهطور قابلتوجهی تصمیمهای جانبدارانه جنسیتی کمتری نسبت به زمانی که با مدل کیسه کلمات (BOW) کار میکردند، گرفتند، که بیشتر قابل تفسیر است. این نشان میدهد که افراد تمایل دارند قبل از پذیرش توصیهای از سیستمی که نمیتوانند به راحتی یک مدل ذهنی از نحوه استخراج خروجیهای آن ایجاد کنند، تأمل کنند و به قضاوت خود تکیه کنند. محققان خواستار کاوش تکنیکهایی برای درگیر کردن بهتر بازتابپذیری انسان هنگام کار با الگوریتمهای پیشرفته هستند که میتواند وسیلهای برای بهبود تصمیمگیری ترکیبی انسان و هوش مصنوعی و کاهش تعصب باشد.
نحوه طراحی تعامل انسان و هوش مصنوعی کلید مکمل بودن و توانمندسازی عامل انسانی است. ما باید به دقت برنامه ریزی کنیم که مردم چگونه با سیستم های هوش مصنوعی که ماهیت تصادفی دارند و چالش های ذاتی متفاوتی نسبت به سیستم های قطعی دارند، تعامل خواهند داشت. طراحی و آزمایش تعامل انسان با سیستمهای هوش مصنوعی در سریعترین زمان ممکن در فرآیند توسعه، حتی قبل از سرمایهگذاری تیمها در مهندسی، میتواند به جلوگیری از شکستهای پرهزینه و طراحی مجدد کمک کند. برای این هدف، محققان آزمایش اولیه تعامل انسان و هوش مصنوعی از طریق نظرسنجی های فاکتوریل، روشی از علوم اجتماعی که از کوتاه مدت استفاده می کند روایاتی برای به دست آوردن بینش در مورد ادراک مردم.
اما آزمایش تجربه کاربری بهینه قبل از سرمایهگذاری تیمها در مهندسی میتواند برای ویژگیهای مبتنی بر هوش مصنوعی که در طول زمان تغییر میکنند چالش برانگیز باشد. ماهیت مداوم فردی که با ویژگی هوش مصنوعی بهروز میشود، مشاهده الگوهای رفتاری کاربر را که میتواند قبل از استقرار یک سیستم به بهبود طراحی کمک کند، دشوار میسازد. با این حال، آزمایشها پتانسیل HINT (تست یکپارچه سازی هوش مصنوعی)، چارچوبی برای کشف الگوهای بیش از حد در رفتار کاربر در طول آزمایش قبل از استقرار. با استفاده از HINT، پزشکان میتوانند تنظیمات آزمایشی را طراحی کنند، دادهها را از طریق یک گردش کار جمعسپاری جمعآوری کنند، و گزارشهایی از معیارهای کاربر محور و آفلاین تولید کنند.
خوانایی
مقالات مرتبط
اگرچه ما هنوز در مراحل اولیه درک چگونگی استفاده مسئولانه از پتانسیل زبان بزرگ و مدلهای چندوجهی هستیم که میتوانند به عنوان پایهای برای ساختن انواع سیستمهای مبتنی بر هوش مصنوعی استفاده شوند، محققان در حال توسعه ابزارها و تکنیکهای ارزیابی امیدوارکننده هستند. برای کمک به تمرینکنندگان در زمین در ارائه هوش مصنوعی مسئول. بازتاب و منابع مورد نیاز برای به کارگیری این قابلیت های جدید با رویکرد انسان محور اساساً با اهداف تجاری خدمات و محصولات قوی سازگار است.
تولید زبان طبیعی با واژگان باز، تخیل زیادی را در تیم های محصول برانگیخته است. با این حال، چالشها از جمله برای بهبود تشخیص زبان سمی وجود دارد. ابزارهای تعدیل محتوا اغلب محتوایی را که گروه های اقلیت را بدون توجه به زمینه ذکر می کند و در عین حال سمیت ضمنی را از دست می دهد، بیش از حد پرچم گذاری می کنند. برای کمک به رفع این مشکل، یک داده داده جدید در مقیاس بزرگ تولید شده توسط ماشین، ToxiGen، به پزشکان امکان می دهد طبقه بندی های نفرت از پیش آموزش دیده را برای بهبود تشخیص سمیت ضمنی تنظیم کنند. برای 13 گروه اقلیت در متن تولید شده توسط انسان و ماشین.
خوانایی
مدلهای چندوجهی در حال گسترش هستند، مانند مدلهایی که تولید زبان طبیعی را با بینایی رایانهای برای خدماتی مانند شرح تصویر ترکیب میکنند. این سیستم های پیچیده می توانند سوگیری های اجتماعی مضر را در خروجی خود نشان دهند و ارزیابی برای کاهش آسیب ها چالش برانگیز هستند. محققان با استفاده از یک سرویس پیشرفته نوشتن شرح تصویر با دو مجموعه داده معروف شرح تصاویر، مضرات مربوط به انصاف را از کجا منشا میگیرند و ارائه تکنیک های اندازه گیری چندگانه برای پنج نوع خاص آسیب بازنمایی: محروم کردن افراد از فرصت برای خودشناسایی، هویت بخشیدن به گروه های اجتماعی، کلیشه سازی، پاک کردن و تحقیر کردن.
ظهور تجاری مولدهای کد مبتنی بر هوش مصنوعی، توسعه دهندگان تازه کار را در کنار متخصصان با برنامه نویسی به کمک مدل زبان بزرگ (LLM) آشنا کرده است. مروری بر تجربه برنامه نویسی به کمک LLM ملاحظات منحصر به فردی را نشان می دهد. برنامه نویسی با LLM ها را به مقایسه با روش های برنامه نویسی مرتبط مانند جستجو، کامپایل و برنامه نویسی جفت دعوت می کند. در حالی که در واقع شباهتهایی وجود دارد، گزارشهای تجربی نشان میدهند که این روشی متمایز از برنامهنویسی با ترکیب منحصربهفرد رفتارها است. به عنوان مثال، برای ایجاد اعلانهایی که کد مورد نظر را تولید میکنند، تلاش بیشتری لازم است و برنامهنویسان باید کد پیشنهادی را از نظر صحت، قابلیت اطمینان، ایمنی و امنیت بررسی کنند. با این حال، یک مطالعه کاربر که بررسی می کند برنامه نویسان برای تولید کد هوش مصنوعی چه ارزشی قائل هستند نشان می دهد که برنامه نویسان در کد پیشنهادی ارزش می یابند زیرا آسان است ویرایش، افزایش بهره وری. محققان یک معیار ترکیبی را پیشنهاد میکنند که صحت عملکردی و معیارهای مبتنی بر شباهت را ترکیب میکند تا به بهترین شکل، آنچه را که برنامهنویسان در برنامهنویسی به کمک LLM ارزش میدهند، به تصویر بکشد، زیرا قضاوت انسان باید تعیین کند که چگونه یک فناوری میتواند به بهترین نحو به ما خدمت کند.
مقالات مرتبط
درک و حمایت از پزشکان هوش مصنوعی
فرهنگ سازمانی و اهداف کسبوکار اغلب میتوانند در تضاد با آنچه پزشکان برای کاهش انصاف و سایر مسائل مرتبط با هوش مصنوعی نیاز دارند، زمانی که سیستمهای آنها در مقیاس به کار گرفته میشوند، باشد. هوش مصنوعی مسئول و انسان محور نیازمند یک رویکرد متفکرانه است: فقط به این دلیل که یک فناوری از نظر فنی امکان پذیر است، به این معنی نیست که بایدایجاد شود.
به طور مشابه، فقط به این دلیل که یک مجموعه داده در دسترس است، به این معنی نیست که استفاده از آن مناسب است. دانستن اینکه چرا و چگونه یک مجموعه داده ایجاد شده است برای کمک به متخصصان هوش مصنوعی در تصمیم گیری در مورد اینکه آیا باید از آن برای اهداف خود استفاده شود و پیامدهای آن برای عدالت، قابلیت اطمینان، ایمنی و حریم خصوصی چیست، بسیار مهم است. یک مطالعه با تمرکز بر نحوه برخورد متخصصان هوش مصنوعی به مجموعه دادهها و اسناد نشان میدهد که شیوههای فعلی غیررسمی و متناقض هستند. به نیاز به چارچوبهای اسناد دادهای است که به گونهای طراحی شدهاند که با جریانهای کاری موجود پزشکان مطابقت داشته باشد و پیامدهای هوش مصنوعی مسئول استفاده از مجموعه داده را روشن کند. بر اساس این یافتهها، محققان صفحههای داده برای مجموعههای داده و هدف اصلاحشده الگوی اسناد داده های اتر.
خوانایی
از این الگوی منعطف برای منعکس کردن و کمک به مستندسازی مفروضات اساسی، خطرات بالقوه، و پیامدهای استفاده از مجموعه داده خود استفاده کنید.
متخصصان هوش مصنوعی فشارهای تحویل را برای دستیابی به اهداف تجاری و زمان مورد نیاز برای توسعه و ارزیابی مسئولانه سیستمهای هوش مصنوعی متعادل میکنند. با بررسی این تنشها در سه شرکت فناوری، محققان مصاحبهها و کارگاههایی را برای یادگیری آنچه پزشکان برای اندازه گیری و کاهش مسائل مربوط به عدالت هوش مصنوعی در میان فشار زمان برای عرضه محصولات با هوش مصنوعی به بازارهای گسترده تر نیاز دارند. geographic markets and for more diverse groups of people. Participants disclosed challenges in collecting appropriate datasets and finding the right metrics for evaluating how fairly their system will perform when they can’t identify direct stakeholders and demographic groups who will be affected by the AI system in rapidly broadening markets. For example, hate speech detection may not be adequate across cultures or languages. A look at what goes into AI practitioners’ decisions around what, when, and how to evaluate AI systems that use natural language generation (NLG) further emphasizes that when practitioners don’t have clarity about deployment settings, they’re limited in projecting failures that could cause individual or societal harm. Beyond concerns for detecting toxic speech, other issues of fairness and inclusiveness—for example, erasure of minority groups’ distinctive linguistic expression—are rarely a consideration in practitioners’ evaluations.
Coping with time constraints and competing business objectives is a reality for teams deploying AI systems. There are many opportunities for developing integrated tools that can prompt AI practitioners to think through potential risks and mitigations for sociotechnical systems.
Related papers
Thinking about it: Reflexivity as an essential for society and industry goals
As we continue to envision what all is possible with AI’s potential, one thing is clear: developing AI designed with the needs of people in mind requires reflexivity. We have been thinking about human-centered AI as being focused on users and stakeholders. Understanding who we are designing for, empowering human agency, improving human-AI interaction, and developing harm mitigation tools and techniques are as important as ever. But we also need to turn a mirror toward ourselves as AI creators. What values and assumptions do we bring to the table? Whose values get to be included and whose are left out? How do these values and assumptions influence what we build, how we build, and for whom? How can we navigate complex and demanding organizational pressures as we endeavor to create responsible AI? With technologies as powerful as AI, we can’t afford to be focused solely on progress for its own sake. While we work to evolve AI technologies at a fast pace, we need to pause and reflect on what it is that we are advancing—and for whom.
پیشنهاد میکنیم از دیگر نوشته ها دیدن کنید.