پیش‌نویس:موسسه هوش مصنوعی NOW

از ویکی‌پدیا، دانشنامهٔ آزاد

این مقاله در حال ترجمه از ویکی انگلیسی است.

لطفا حذف نشود.

مرکز تحقیقاتی هوش مصنوعی NOW

انجمن هوش مصنوعی Now واقع در نیویورک یک مرکز تحقیقاتی آمریکایی است که اثرات اجتماعی هوش مصنوعی را مورد بررسی قرار می دهد. مرکز هوش مصنوعی NOW توسط کیت کرافورد و مردیث ویتاکر در سال 2017 پس از برگزاری نشستی در کاخ سفید در زمان ریاست جمهوری باراک اوباما برگزار شد، تاسیس شد. [۱] [۲] این مرکز در دانشگاه نیویورک واقع شده است. مرکز تحقیقاتی NOW با مراکزی مانند دانشکده مهندسی تاندون دانشگاه نیویورک ، مرکز علوم داده دانشگاه نیویورک ، مشارکت در هوش مصنوعی و ACLU همکاری می کند. انجمن هوش مصنوعی NOW گزارش های سالانه مبتنی بر موضوع پیامدهای اجتماعی هوش مصنوعی ارائه می دهد.

تاریخ تاسیس و هدف[ویرایش]

مرکز هوش مصنوعی NOW بعد از یک نشست در سال 2016 توسط دفتر سیاست علم و فناوری کاخ سفید اوباما برگزار شده بود، تاسیس شد. این رویداد توسط مردیث ویتاکر ، بنیانگذار گروه تحقیقاتی گوگل ، کیت کرافورد و محقق اصلی مایکروسافت در بخش تحقیقاتی مایکروسافت رهبری شد. [۳] این رویداد با موضوع پیامدهای کوتاه مدت هوش مصنوعی بر جامعه متمرکز بود: نابرابری، کار، اخلاق، و مراقبت های بهداشتی. [۴]

در نوامبر سال 2017، ویتاکر و کرافورد دومین نشست را در رابطه با موضوع هوش مصنوعی و مسائل اجتماعی برگزار کردند و انجمن هوش مصنوعی اکنون را با همکاری دانشگاه نیویورک به صورت عمومی تاسیس کردند. [۳] ادعا می شود که این اولین مرکز تحقیقاتی دانشگاهی است که بر روی موضوعات اثرات اجتماعی هوش مصنوعی متمرکز شده است و اولین مؤسسه هوش مصنوعی است که توسط زنان تأسیس و رهبری می شود.

کرافورد در مصاحبه ای با NPR بیان کرد که انگیزه تأسیس مرکز هوش مصنوعی Now این بود که استفاده از هوش مصنوعی در حوزه های اجتماعی - مانند مراقبت های بهداشتی، آموزش و عدالت کیفری - به عنوان یک مسئله فنی در نظر گرفته شده است. هدف از تحقیقات مرکز هوش مصنوعی NOW این است که ابتدا این مشکلات را به عنوان موضوعات اجتماعی در نظر گرفته شود و متخصصان حوزه هایی در زمینه‌ جامعه‌شناسی، حقوق و تاریخ برای مطالعه اثرات هوش مصنوعی بر موضوعات اجتماعی بیاورد. [۵]

تحقیقات[ویرایش]

پس از هر نشست، مرکز تحقیقاتی NOW گزارش سالانه در رابطه با موضوع وضعیت هوش مصنوعی و ادغام آن با جامعه را منتشر می کند. گزارش سال 2017 بیان کرد که «چارچوب‌های فعلی اخلاق در رابطه با هوش مصنوعی با شکست مواجه هستند» و ده پیشنهاد استراتژیک دررابطه با این موضوع مطرح کرد - از جمله آزمایش‌های پیش از انتشار سیستم‌های هوش مصنوعی، و افزایش تحقیقات در مورد تعصب و تنوع در این زمینه. این گزارش به دلیل درخواست برای پایان دادن به سیستم‌های " جعبه سیاه " در حوزه‌های اجتماعی اصلی، مانند کسانی که مسئول عدالت کیفری، مراقبت‌های بهداشتی، رفاه و آموزش هستند، مورد توجه قرار گرفت. [۶] [۷] [۸]

در ماه آوریل سال 2018، انجمن هوش مصنوعی NOW معیاری برای ارزیابی تأثیر الگوریتم ( گزارش AIA )، به عنوان روشی برای دولت‌ها در رابطه با بررسی چگونگی استفاده از هوش مصنوعی در سازمان‌های دولتی مطرح کرد. به گفته ی مرکز هوش مصنوعی Now، مشابه AIA برای ارزیابی اثرات زیست محیطی است، زیرا مستلزم افشای عمومی و دسترسی کارشناسان خارجی برای ارزیابی اثرات یک سیستم هوش مصنوعی و همه ی عواقب ناخواسته ی آن هستند. این مسئله به سیستم‌ها اجازه می‌دهد تا برای مسائلی مانند نتایج مغرضانه یا داده‌های آموزشی ناهنجار، که محققان قبلاً در سیستم‌های الگوریتمی مستقر در سراسر کشور شناسایی کرده‌اند، بررسی شوند. [۹] [۱۰] [۱۱]

اکنون موضوعات تحقیق هوش مصنوعی به صورت بین رشته ای انجام می شود که بر چهار موضوع تمرکز دارد:

  • تعصب و شمول
  • کار و اتوماسیون
  • حقوق و آزادی ها
  • زیرساخت های ایمنی و عمرانی

منابع[ویرایش]

  1. "The field of AI research is about to get way bigger than code". Quartz (به انگلیسی). 2017-11-15. Retrieved 2018-07-09.
  2. "Biased AI Is A Threat To Civil Liberties. The ACLU Has A Plan To Fix It". Fast Company (به انگلیسی). 2017-07-25. Retrieved 2018-07-07.
  3. ۳٫۰ ۳٫۱ Ahmed, Salmana. "In Pursuit of Fair and Accountable AI". Omidyar. Retrieved 19 July 2018.
  4. "2016 Symposium". ainowinstitute.org (به انگلیسی). Archived from the original on 2018-07-20. Retrieved 2018-07-09.
  5. "Studying Artificial Intelligence At New York University". NPR. Retrieved 2018-07-18.
  6. "AI Now 2017 Report" (PDF). AI Now. Retrieved 19 July 2018.
  7. Simonite, Tom (18 October 2017). "AI Experts Want to End 'Black Box' Algorithms in Government". Wired. Retrieved 19 July 2018.
  8. Rosenberg, Scott (1 November 2017). "Why AI is Still Waiting For Its Ethics Transplant". Wired. Retrieved 19 July 2018.
  9. Gershgorn, Dave (9 April 2018). "AI experts want government algorithms to be studied like environmental hazards". Quartz. Retrieved 19 July 2018.
  10. "AI Now AIA Report" (PDF). AI Now. Retrieved 19 July 2018.
  11. Reisman, Dillon. "Algorithms Are Making Government Decisions. The Public Needs to Have a Say". Medium. ACLU. Retrieved 19 July 2018.

همچنین ببینید[ویرایش]

  • بانجو (کاربرد)
  • Clearview AI