نظر متفاوت کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی

به گزارش مجله فوتبال دوستان، دیجیاتو نوشت: برخلاف رهبران صنعت فناوری که خواهان توقف توسعه هوش مصنوعی به مدت شش ماه شده بودند، کارشناسان امنیت سایبری نظر دیگری دارند.

نظر متفاوت کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی

هفته گذشته، گروهی از فعالان فناوری و متخصصان هوش مصنوعی ازجمله ایلان ماسک، با ارائه یک نامه سرگشاده خواستند تا توسعه سیستم های هوش مصنوعی قدرتمندتر از GPT-4 به علت خطرات آن برای جامعه و بشریت به مدت شش ماه متوقف گردد. هرچند توقف این روند می تواند به درک بهتر و تنظیم خطرات اجتماعی ایجادشده به وسیله هوش مصنوعی یاری کند، بعضی افراد استدلال نموده اند که این کوشش به وسیله رقبای بعضی رهبران این حوزه مانند OpenAI اجرا شده است تا بتوانند در این فضا به رقابت بپردازند.

بیشتر بخوانید:

  • ایلان ماسک هشدار داد: هر چه سریع تر جلوی این تهدید بزرگ را بگیرید!

تحلیلگر شرکت گارتنر در مصاحبه ای با VentureBeat شرح می دهد که وقفه شش ماهه درخواستی برای توقف آموزش مدل های قدرتمندتر از GPT-4 است. GPT-5 به زودی پس از GPT 4.5 منتشر خواهد شد که انتظار می رود به AGI (هوش عمومی مصنوعی) دست پیدا کند. هنگامی که AGI در دسترس قرار گیرد، احتمالاً برای ایجاد کنترل های ایمنی که به طور مؤثر از انسان در مقابل استفاده از این سیستم ها محافظت می نماید، خیلی دیر خواهد بود.

با وجود نگرانی هایی که در خصوص خطرات اجتماعی ناشی از هوش مصنوعی مولد وجود دارد، بسیاری از کارشناسان امنیت سایبری بعلاوه اشاره نموده اند که وقفه در توسعه هوش مصنوعی به هیچ وجه یاری نماینده نخواهد بود. درعوض، آن ها استدلال نموده اند که این تصمیم فرصت موقتی برای تیم های امنیتی ایجاد خواهد نمود تا بتوانند روش های دفاعی خود را توسعه دهند.

یکی از قانع نماینده ترین استدلال هایی که علیه توقف تحقیقات هوش مصنوعی ارائه شده است، ادعا می نماید که این تصمیم فقط بر فروشندگان تأثیرگذار خواهد بود و نه عوامل تهدید. طبق این استدلال، مجرمان سایبری همچنان توانایی توسعه حملات نو و بعلاوه تقویت تکنیک های تهاجمی خود را خواهند داشت.

استیو گروبمن، مدیر ارشد فناوری McAfee، به VentureBeat گفت: توقف توسعه نسل بعدی هوش مصنوعی مانع حرکت این فناوری به سمت های خطرناک نخواهد شد. با پیشرفت فناوری، وجود سازمان ها و شرکت هایی با آیین و استانداردهایی که به پیشرفت فناوری ادامه می دهند، برای اطمینان از اینکه از فناوری به مسئولانه ترین شکل ممکن استفاده می گردد، لازم است.

درواقع کارشناسان این صنعت پیشنهاد می نمایند که به جای توقف توسعه مدل های نو، تمرکز روی نحوه مدیریت خطرات مرتبط با استفاده مخرب از هوش مصنوعی مولد و ترغیب فروشندگان هوش مصنوعی به شفافیت بیشتر می تواند به کاهش خطرات مربوط به این زمینه یاری بیشتری کند.

5858

منبع: خبرآنلاین
انتشار: 12 فروردین 1402 بروزرسانی: 12 فروردین 1402 گردآورنده: footballgahan15.ir شناسه مطلب: 2166

به "نظر متفاوت کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "نظر متفاوت کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید