غولهای فناوری با چارچوبهای هوش مصنوعی کاخ سفید موافقت کردند
تاریخ انتشار: ۲ مرداد ۱۴۰۲ | کد خبر: ۳۸۳۰۳۲۷۲
به گزارش خبرنگار علم و فناوری ایسکانیوز؛ در راستای بروز جنجالهایی بر سر خطرات آینده هوش مصنوعی، دولت جو بایدن سعی کرده که چارچوبهای پیشگیرانهای برای سیستمهای هوش مصنوعی تعریف کند تا از این خطرات پیشگیری کند. برخی از دستورالعملها مستلزم نظارت شخص ثالث بر عملکرد سیستمهای هوش مصنوعی تجاری است که البته جزئیاتی در مورد اینکه چه کسی این فناوری را ممیزی میکند یا شرکتها را مسئول نگه میدارد، ذکر نشده است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
بایدن اعلام کرد که دولت او تعهدات داوطلبانه هفت شرکت آمریکایی را تضمین کرده است تا از ایمن بودن محصولات هوش مصنوعی آنها قبل از انتشار اطمینان حاصل کنند.
بایدن گفت: ما باید نسبت به تهدیداتی که فناوریهای نوظهور میتوانند ایجاد کنند، شفاف و هوشیار باشیم. رسانههای اجتماعی به ما نشان دادند که فناوریهای قدرتمند میتوانند بدون وجود چارچوب، آسیبهایی را وارد کنند. پس این تعهدات یک گام امیدوارکننده است. با این حال، تا رسیدن به محل امن دنیای فناوری راه درازی در پیش داریم.
این در حالی است که سرمایهگذاریهای تجاری در توسعه ابزارهای مبتنی بر هوش مصنوعی مولد روز به روز بیشتر میشود. این ابزارها میتوانند متنهای متقاعدکنندهای شبیه انسان بنویسند و تصاویر و رسانههای جدیدی تولید کنند که با توجه به جذابیت عمومی و همچنین توانایی آنها در فریب دادن مردم و انتشار اطلاعات نادرست خطرات این فناوری را صدچندان میکنند.
آزمایشهای امنیتی دولتیکاخ سفید در بیانیهاش اعلام کرد که شرکتهای OpenAI، سازنده چتجیپیتی و استارتاپهای آنتروپیک و اینفلکشن، به غیر از چهار غول ذکر شده، متعهد شدهاند که آزمایشهای امنیتی دولت را انجام دهند تا از خطرات عمده این ابزار مانند امنیت زیستی و سایبری محافظت کنند. گفتنی است که آزمایشهای امنیتی تا حدودی توسط کارشناسان مستقل و خارج از خود شرکتها انجام خواهد شد.
این آزمایش همچنین پتانسیل آسیبهای اجتماعی، مانند تعصب و تبعیض و خطرات نظری بیشتری را در مورد سیستمهای هوش مصنوعی پیشرفته بررسی خواهد کرد که از میان آنها میتوان به مواردی چون کنترل سیستمهای فیزیکی یا کپی کردن از خودشان یا «تکثیر» اشاره کرد.
این شرکتها همچنین متعهد به روشهایی برای گزارش آسیبپذیریها به سیستمهای خود و استفاده از واترمارک دیجیتال برای کمک به تمایز بین تصاویر واقعی و تولید شده توسط هوش مصنوعی به نام دیپفیک شدند.
به گفته کاخ سفید، این شرکتها به طور عمومی نقصها و خطرات موجود در فناوری خود، از جمله تأثیرات بر انصاف و تعصب را گزارش خواهند کرد. با این حال، به نظر میرسد که تعهدات داوطلبانه راهی فوری برای پرداختن به خطراتی است که کنگره آمریکا براساس آن میخواهد قوانین تنظیمکنندهای برای هوش مصنوعی تصویب کند. بر این اساس نیز قرار است مدیران این شرکتها به زودی در کاخ سفید گرد هم آیند و با جلساتی که با شخص جو بایدن خواهند داشت، خود را متعهد به پیروی از استانداردها کنند.
البته برخی همانند آمبا کاک، مدیر اجرایی موسسه AI Now، معتقد است که مذاکره پشت درهای بسته با مدیران این شرکتها کافی نیست و نیاز به بحثهای عمومی و بسیار گستردهتری وجود دارد. در واقع، مسائل و موضوعاتی در این زمینه نهفته است که شرکتها دیگر نمیتوانند داوطلبانه به آنها متعهد شوند، زیرا نتایج آن به صورت کاملا مستقیم روی مدلهای کسبوکارشان تاثیر میگذارد.
براد اسمیت، رئیس مایکروسافت، در یک پست وبلاگی نوشت که شرکت او تعهداتی دارد که فراتر از تعهد کاخ سفید است، از جمله حمایت از مقرراتی که رژیم صدور مجوز برای مدلهای بسیار توانمند ایجاد میکند.
اما برخی از کارشناسان و رقبای مبتدی نگران هستند که نوع مقرراتی که ارائه میشود بیشتر به نفع غولهایی مانند OpenAI، گوگل و مایکروسافت تمام شود و شرکتهای کوچکتر به دلیل هزینههای بالای ساخت سیستمهای هوش مصنوعی درگیر محدودیتهای قانونی شوند و نتوانند پیشرفتی داشته باشند.
تشکیل هیاتی از سازمان مللچارچوب کاخ سفید اشاره میکند که فقط برای مدلهایی اعمال میشود که در مجموع قدرتمندتر از مرزهای صنعتی فعلی هستند و توسط مدلهای موجود مانند نسخه چهارم جیپیتی شرکت OpenAI و تولید کننده تصویر DALL-E 2 و نسخههای مشابه آنتروپیک، گوگل و آمازون تنظیم شدهاند.
این در حالی است که قانونگذاران اتحادیه اروپا در حال مذاکره درباره قوانین هوش مصنوعی هستند که فقط برای برنامههایی که بالاترین میزان خطر را دارند، محدودیت ایجاد میکند.
آنتونیو گوترش، دبیرکل سازمان ملل متحد به تازگی اعلام کرده که سازمان ملل «مکانی ایدهآل» برای اتخاذ استانداردهای جهانی است و هیاتی را منصوب کرد که تا پایان سال درباره گزینههای حکمرانی جهانی هوش مصنوعی گزارش دهد.
گوترش همچنین گفت که از درخواستهای برخی کشورها برای ایجاد یک نهاد جدید سازمان ملل برای حمایت از تلاشهای جهانی برای اداره هوش مصنوعی با الهام از مدلهایی مانند آژانس بینالمللی انرژی اتمی یا هیات بیندولتی تغییرات آب و هوایی استقبال میکند.
انتهای پیام/
نسترن صائبی صفت کد خبر: 1191049 برچسبها هوش مصنوعیمنبع: ایسکانیوز
کلیدواژه: هوش مصنوعی سیستم های هوش مصنوعی شرکت ها سازمان ملل کاخ سفید
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iscanews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ایسکانیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۳۰۳۲۷۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی جهتگیری سیاسی افراد را از روی چهره تشخیص میدهد
به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینرینگ، از آنجایی که هوش مصنوعی با سرعتی طوفانی بر عصر دیجیتال تسلط یافته است، تعیین مزایا و معایب این فناوری چالش برانگیزتر شده است. این امر، تعیین استانداردها و سیاستهای تنظیم فناوری را برای دولتهای سراسر جهان دشوارتر کرده است.
اکنون، مطالعه جدیدی که توسط محققان دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد انجام شده است به بررسی تأثیرات هوش مصنوعی بر تشخیص جهتگیری سیاسی افراد میپردازد. در این مطالعه نشان داده شده است که جهتگیری سیاسی میتواند توسط انسان یا هوش مصنوعی و با استفاده از تصاویر چهره افراد پیشبینی شود، حتی زمانی که عواملی مانند سن، جنسیت و نژاد در نظر گرفته شده باشند.
کشف ارتباط میان تمایلات سیاسی و ویژگیهای چهره
پژوهشگران پاسخهای ۵۹۱ نفر از شرکتکنندگانی که پرسشنامههای سیاسی را پر کردهاند، مورد بررسی قرار دادند. آنها همچنین اسکن صورت افراد را توسط الگوریتم هوش مصنوعی و ارزیابیکنندههای انسان بررسی و ارتباط بین مورفولوژی چهره و ایدئولوژی سیاسی را پیدا کردند.
این مطالعه همچنین ۳۴۰۱ سیاستمدار از ایالات متحده، بریتانیا و کانادا را مورد تجزیه و تحلیل قرار داد.
به نظر میرسد هوش مصنوعی با ضریب همبستگی (r) برابر با ۰.۲۲ و انسانها با ضریب همبستگی ۰.۲۱، میتوانند به درستی جهتگیری سیاسی را پیشبینی کنند.
این دقت پیشبینی قابل توجه است، زیرا مقیاس جهتگیری سیاسی دارای سطح بالایی از همسانی داخلی (α کرونباخ = ۰.۹۴) بوده و با حذف همبستگی با متغیرهای جمعیتشناختی مانند سن، جنسیت و نژاد تنظیم شده است.
نتایج نشان داد که توانایی فناوری تشخیص چهره برای پیشبینی جهتگیری سیاسی به طور مشابه با روشهای پیشبینی موجود قابلیت پیشبینی را دارد.
نویسندگان تاکید کردند: این نشان دهنده ارتباط بین تمایلات سیاسی و ویژگیهای ذاتی چهره است که تا حد زیادی خارج از کنترل فرد است.
بر اساس این مطالعه، دقت پیشبینی الگوریتم با ضریب همبستگی ۰.۳۱ بیشتر شد. این نشان داد که در نظر گرفتن متغیرهای جمعیت شناختی با ویژگیهای چهره میتواند به طور قابل توجهی تواناییهای پیش بینی الگوریتم را بهبود بخشد.
در هنگام پیشبینی، این مطالعه ادعا کرده است که لیبرالها دارای چهرههای کوچکتر و ویژگیهای متحرک به سمت پایین هستند، در حالی که محافظهکاران ویژگیهای چهره متضادی را نشان میدهند.
قابلیت پیش بینی جهت گیری سیاسی از تصاویر استاندارد شده پیامدهای مهمی برای حفظ حریم خصوصی، تنظیم فناوری تشخیص چهره و درک منشاء و پیامدهای جهت گیری سیاسی دارد.
هوش مصنوعی جهتگیری سیاسی را از تصاویر چهره خنثی تشخیص میدهد
اکنون، این فناوری میتواند جهت گیری سیاسی افراد را فقط از روی تصاویر چهره خنثی آنها و علیرغم در نظر گرفتن عوامل جمعیتی مانند سن، جنسیت و قومیت تشخیص دهد.
این یافتهها منعکسکننده پیامدهای سیاسی نظارت بیومتریک است که از الگوریتمهای هوش مصنوعی استفاده میکند و تهدید جدیدی برای حریم خصوصی و استقلال سیاسی در عصر دیجیتال است.
محققان با تاکید بر نیاز فوری به مقابله با چالشهای عصر دیجیتال، اظهار داشتند: یافتههای ما بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی شخصی برای محققان، مردم و سیاستگذاران تاکید میکند.
این مطالعه در مجله امریکن سایکولوژیست منتشر شده است.
انتهای پیام/