Web Analytics Made Easy - Statcounter

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ در راستای بروز جنجال‌هایی بر سر خطرات آینده هوش مصنوعی، دولت جو بایدن سعی کرده که چارچوب‌های پیشگیرانه‌ای برای سیستم‌های هوش مصنوعی تعریف کند تا از این خطرات پیشگیری کند. برخی از دستورالعمل‌ها مستلزم نظارت شخص ثالث بر عملکرد سیستم‌های هوش مصنوعی تجاری است که البته جزئیاتی در مورد اینکه چه کسی این فناوری را ممیزی می‌کند یا شرکت‌ها را مسئول نگه می‌دارد، ذکر نشده است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

با این اوصاف هفت غول فناوری از جمله آمازون، گوگل، متا و مایکروسافت که در زمینه توسعه هوش مصنوعی پیشگام هستند، با موافقت با این دستورالعمل و چارچوب‌ها، گام مهمی در جهت مدیریت وعده و خطرات متعدد ناشی از این فناوری برداشتند.

جلسه جو بایدن با غول‌های فناوری در مورد خطرات هوش مصنوعی

بایدن اعلام کرد که دولت او تعهدات داوطلبانه هفت شرکت آمریکایی را تضمین کرده است تا از ایمن بودن محصولات هوش مصنوعی آنها قبل از انتشار اطمینان حاصل کنند.

بایدن گفت: ما باید نسبت به تهدیداتی که فناوری‌های نوظهور می‌توانند ایجاد کنند، شفاف و هوشیار باشیم. رسانه‌های اجتماعی به ما نشان دادند که فناوری‌های قدرتمند می‌توانند بدون وجود چارچوب‌، آسیب‌هایی را وارد کنند. پس این تعهدات یک گام امیدوارکننده است. با این حال، تا رسیدن به محل امن دنیای فناوری راه درازی در پیش داریم.

این در حالی است که سرمایه‌گذاری‌های تجاری در توسعه ابزارهای مبتنی بر هوش مصنوعی مولد روز به روز بیشتر می‌شود. این ابزارها می‌توانند متن‌های متقاعدکننده‌ای شبیه انسان بنویسند و تصاویر و رسانه‌های جدیدی تولید کنند که با توجه به جذابیت عمومی و همچنین توانایی آنها در فریب دادن مردم و انتشار اطلاعات نادرست خطرات این فناوری را صدچندان می‌کنند.

آزمایش‌های امنیتی دولتی

کاخ سفید در بیانیه‌اش اعلام کرد که شرکت‌های OpenAI، سازنده چت‌جی‌پی‌تی و استارتاپ‌های آنتروپیک و اینفلکشن، به غیر از چهار غول ذکر شده، متعهد شده‌اند که آزمایش‌های امنیتی دولت را انجام دهند تا از خطرات عمده‌ این ابزار مانند امنیت زیستی و سایبری محافظت کنند. گفتنی است که آزمایش‌های امنیتی تا حدودی توسط کارشناسان مستقل و خارج از خود شرکت‌ها انجام خواهد شد.

این آزمایش همچنین پتانسیل آسیب‌های اجتماعی، مانند تعصب و تبعیض و خطرات نظری بیشتری را در مورد سیستم‌های هوش مصنوعی پیشرفته بررسی خواهد کرد که از میان آنها می‌توان به مواردی چون کنترل سیستم‌های فیزیکی یا کپی کردن از خودشان یا «تکثیر» اشاره کرد.

این شرکت‌ها همچنین متعهد به روش‌هایی برای گزارش آسیب‌پذیری‌ها به سیستم‌های خود و استفاده از واترمارک دیجیتال برای کمک به تمایز بین تصاویر واقعی و تولید شده توسط هوش مصنوعی به نام دیپ‌فیک شدند.

به گفته کاخ سفید، این شرکت‌ها به طور عمومی نقص‌ها و خطرات موجود در فناوری خود، از جمله تأثیرات بر انصاف و تعصب را گزارش خواهند کرد. با این حال،‌ به نظر می‌رسد که تعهدات داوطلبانه راهی فوری برای پرداختن به خطراتی است که کنگره آمریکا براساس آن می‌خواهد قوانین تنظیم‌کننده‌ای برای هوش مصنوعی تصویب کند. بر این اساس نیز قرار است مدیران این شرکت‌ها به زودی در کاخ سفید گرد هم آیند و با جلساتی که با شخص جو بایدن خواهند داشت، خود را متعهد به پیروی از استانداردها کنند.

البته برخی همانند آمبا کاک، مدیر اجرایی موسسه AI Now، معتقد است که مذاکره پشت درهای بسته با مدیران این شرکت‌ها کافی نیست و نیاز به بحث‌های عمومی و بسیار گسترده‌تری وجود دارد. در واقع، مسائل و موضوعاتی در این زمینه نهفته است که شرکت‌ها دیگر نمی‌توانند داوطلبانه به آنها متعهد شوند، زیرا نتایج آن به صورت کاملا مستقیم روی مدل‌های کسب‌وکارشان تاثیر می‌گذارد.

براد اسمیت، رئیس مایکروسافت، در یک پست وبلاگی نوشت که شرکت او تعهداتی دارد که فراتر از تعهد کاخ سفید است، از جمله حمایت از مقرراتی که رژیم صدور مجوز برای مدل‌های بسیار توانمند ایجاد می‌کند.

اما برخی از کارشناسان و رقبای مبتدی نگران هستند که نوع مقرراتی که ارائه می‌شود بیشتر به نفع غول‌هایی مانند OpenAI، گوگل و مایکروسافت تمام شود و شرکت‌های کوچک‌تر به دلیل هزینه‌های بالای ساخت سیستم‌های هوش مصنوعی درگیر محدودیت‌های قانونی شوند و نتوانند پیشرفتی داشته باشند.

تشکیل هیاتی از سازمان ملل

چارچوب کاخ سفید اشاره می‌کند که فقط برای مدل‌هایی اعمال می‌شود که در مجموع قدرتمندتر از مرزهای صنعتی فعلی هستند و توسط مدل‌های موجود مانند نسخه چهارم جی‌پی‌تی شرکت OpenAI و تولید کننده تصویر DALL-E 2 و نسخه‌های مشابه آنتروپیک، گوگل و آمازون تنظیم شده‌اند.

این در حالی است که قانونگذاران اتحادیه اروپا در حال مذاکره درباره قوانین هوش مصنوعی هستند که فقط برای برنامه‌هایی که بالاترین میزان خطر را دارند، محدودیت ایجاد می‌کند.

آنتونیو گوترش، دبیرکل سازمان ملل متحد به تازگی اعلام کرده که سازمان ملل «مکانی ایده‌آل» برای اتخاذ استانداردهای جهانی است و هیاتی را منصوب کرد که تا پایان سال درباره گزینه‌های حکمرانی جهانی هوش مصنوعی گزارش دهد.

گوترش همچنین گفت که از درخواست‌های برخی کشورها برای ایجاد یک نهاد جدید سازمان ملل برای حمایت از تلاش‌های جهانی برای اداره هوش مصنوعی با الهام از مدل‌هایی مانند آژانس بین‌المللی انرژی اتمی یا هیات بین‌دولتی تغییرات آب و هوایی استقبال می‌کند.

انتهای پیام/

نسترن صائبی صفت کد خبر: 1191049 برچسب‌ها هوش مصنوعی

منبع: ایسکانیوز

کلیدواژه: هوش مصنوعی سیستم های هوش مصنوعی شرکت ها سازمان ملل کاخ سفید

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.iscanews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایسکانیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۳۰۳۲۷۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد

به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینرینگ، از آنجایی که هوش مصنوعی با سرعتی طوفانی بر عصر دیجیتال تسلط یافته است، تعیین مزایا و معایب این فناوری چالش برانگیزتر شده است. این امر، تعیین استاندارد‌ها و سیاست‌های تنظیم فناوری را برای دولت‌های سراسر جهان دشوارتر کرده است.

اکنون، مطالعه جدیدی که توسط محققان دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد انجام شده است به بررسی تأثیرات هوش مصنوعی بر تشخیص جهت‌گیری سیاسی افراد می‌پردازد. در این مطالعه نشان داده شده است که جهت‌گیری سیاسی می‌تواند توسط انسان یا هوش مصنوعی و با استفاده از تصاویر چهره افراد پیش‌بینی شود، حتی زمانی که عواملی مانند سن، جنسیت و نژاد در نظر گرفته شده باشند.

کشف ارتباط میان تمایلات سیاسی و ویژگی‌های چهره

پژوهشگران پاسخ‌های ۵۹۱ نفر از شرکت‌کنندگانی که پرسش‌نامه‌های سیاسی را پر کرده‌اند، مورد بررسی قرار دادند. آنها همچنین اسکن صورت افراد را توسط الگوریتم هوش مصنوعی و ارزیابی‌کننده‌های انسان بررسی و ارتباط بین مورفولوژی چهره و ایدئولوژی سیاسی را پیدا کردند.

این مطالعه همچنین ۳۴۰۱ سیاستمدار از ایالات متحده، بریتانیا و کانادا را مورد تجزیه و تحلیل قرار داد.

به نظر می‌رسد هوش مصنوعی با ضریب همبستگی (r) برابر با ۰.۲۲ و انسان‌ها با ضریب همبستگی ۰.۲۱، می‌توانند به درستی جهت‌گیری سیاسی را پیش‌بینی کنند.

این دقت پیش‌بینی قابل توجه است، زیرا مقیاس جهت‌گیری سیاسی دارای سطح بالایی از همسانی داخلی (α کرونباخ = ۰.۹۴) بوده و با حذف همبستگی با متغیر‌های جمعیت‌شناختی مانند سن، جنسیت و نژاد تنظیم شده است.

نتایج نشان داد که توانایی فناوری تشخیص چهره برای پیش‌بینی جهت‌گیری سیاسی به طور مشابه با روش‌های پیش‌بینی موجود قابلیت پیش‌بینی را دارد.

نویسندگان تاکید کردند: این نشان دهنده ارتباط بین تمایلات سیاسی و ویژگی‌های ذاتی چهره است که تا حد زیادی خارج از کنترل فرد است.

بر اساس این مطالعه، دقت پیش‌بینی الگوریتم با ضریب همبستگی ۰.۳۱ بیشتر شد. این نشان داد که در نظر گرفتن متغیر‌های جمعیت شناختی با ویژگی‌های چهره می‌تواند به طور قابل توجهی توانایی‌های پیش بینی الگوریتم را بهبود بخشد.

در هنگام پیش‌بینی، این مطالعه ادعا کرده است که لیبرال‌ها دارای چهره‌های کوچک‌تر و ویژگی‌های متحرک به سمت پایین هستند، در حالی که محافظه‌کاران ویژگی‌های چهره متضادی را نشان می‌دهند.

قابلیت پیش بینی جهت گیری سیاسی از تصاویر استاندارد شده پیامد‌های مهمی برای حفظ حریم خصوصی، تنظیم فناوری تشخیص چهره و درک منشاء و پیامد‌های جهت گیری سیاسی دارد.

هوش مصنوعی جهت‌گیری سیاسی را از تصاویر چهره خنثی تشخیص می‌دهد

اکنون، این فناوری می‌تواند جهت گیری سیاسی افراد را فقط از روی تصاویر چهره خنثی آن‌‌‌ها و علیرغم در نظر گرفتن عوامل جمعیتی مانند سن، جنسیت و قومیت تشخیص دهد.

این یافته‌ها منعکس‌کننده پیامد‌های سیاسی نظارت بیومتریک است که از الگوریتم‌های هوش مصنوعی استفاده می‌کند و تهدید جدیدی برای حریم خصوصی و استقلال سیاسی در عصر دیجیتال است.

محققان با تاکید بر نیاز فوری به مقابله با چالش‌های عصر دیجیتال، اظهار داشتند: یافته‌های ما بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی شخصی برای محققان، مردم و سیاست‌گذاران تاکید می‌کند.

این مطالعه در مجله امریکن سایکولوژیست منتشر شده است.

انتهای پیام/

دیگر خبرها

  • آخرین قوانین کشورها برای مقابله با خطرات هوش مصنوعی
  • ایجاد دفتر فراجا در بنیاد ملی نخبگان؛ علت چیست؟!
  • یکپارچه سازی هوش مصنوعی اوپن ای آی و گوگل در آیفون‌های جدید
  • راه‌اندازی اپراتور اختصاصی هوش مصنوعی در کشور
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد
  • انتشار جزئیاتی بیشتر از هوش‌مصنوعی آیفون/ پای غول‌های فناوری در میان می‌آید!
  • آدرس غلط در بحث ایمنی خودرو‌ها | تحول در حوزه هوش مصنوعی 
  • اپراتور اختصاصی هوش مصنوعی راه‌اندازی می‌‎شود
  • چرایی ایجاد دفتر «فراجا» در بنیاد ملی نخبگان/۲ بال علم و فناوری «وعده صادق»
  • پیوستن رهبران فناوری دنیا به هیئت فدرال ایمنی هوش مصنوعی آمریکا