i-PRO اصول اخلاقی خود را برای هوش مصنوعی فرموله کرده است و چارچوبی را ایجاد کرده است که برای تعادل بین پیشرفت فناوری هوش مصنوعی با مسئولیت اجتماعی و ملاحظات اخلاقی طراحی شده است.

تا سال 2026،  گارتنر پیش بینی می کند  که 50 درصد از دولت ها در سراسر جهان استفاده از هوش مصنوعی مسئول را از طریق مقررات، سیاست ها و نیاز به حفظ حریم خصوصی داده ها اعمال خواهند کرد. در حالی که این دستورالعمل ها در حال توسعه هستند، هوش مصنوعی با سرعتی سریع به تکامل خود ادامه می دهد.

i-PRO Co., Ltd. (پناسونیک سکیوریتی سابق)، یک رهبر جهانی در راه حل های امنیتی حرفه ای برای نظارت و امنیت عمومی، بر اهمیت حیاتی شیوه های هوش مصنوعی اخلاقی و مسئولانه در حوزه امنیت فیزیکی تاکید می کند.

با درک تأثیر عمیق هوش مصنوعی بر جامعه، i-PRO  همیشه برای ایجاد محیطی با استفاده مسئولانه و اخلاقی از هوش مصنوعی اهمیت زیادی قائل است . به همین منظور، i-PRO  اصول اخلاقی خود را برای هوش مصنوعی فرموله کرده است و چارچوبی را ایجاد کرده است که پیشرفت فناوری هوش مصنوعی را با مسئولیت اجتماعی و ملاحظات اخلاقی متعادل کند.

اصول کلیدی اصول اخلاقی i-PRO برای هوش مصنوعی عبارتند از:

دستیابی به کیفیت زندگی بهبود یافته و پرورش جامعه ایمن تر و ایمن تر:

i-PRO تلاش می کند تا از طریق تحقیق و توسعه مستمر هوش مصنوعی، ارزشی پایدار ایجاد کند که به  ایمنی و امنیت جامعه کمک می کند.

این شرکت به طور مداوم اثرات انسانی، اجتماعی و محیطی محصولات و خدمات هوش مصنوعی خود را برای بهبود بیشتر ارائه فناوری خود ارزیابی خواهد کرد.

حفاظت از حقوق بشر و حریم خصوصی:

i-PRO  حفاظت از حقوق اساسی بشر را  در توسعه و استقرار راه حل های هوش مصنوعی در اولویت قرار می دهد. رعایت اصول حفاظت از داده ها و حفظ حریم خصوصی همه جنبه های عملیات ما را راهنمایی می کند.

ما مجوز و پروتکل های احراز هویت سختگیرانه را برای محافظت از داده های حساس در برنامه های مبتنی بر هوش مصنوعی خود اعمال می کنیم.

علاوه بر این، ما متعهد هستیم که به مشتریان خود ابزارهای تعبیه شده برای تسهیل انطباق با مقررات در حال تحول هوش مصنوعی ارائه دهیم.

شفافیت و انصاف:

i-PRO متعهد می شود که از اصول شفافیت و انصاف ، تقویت تنوع و برابری برای مبارزه با تعصب ، تبعیض و اقدامات ناعادلانه که به طور بالقوه با استفاده از هوش مصنوعی ایجاد می شود، حمایت کند.

ما با آزمایش مداوم و کامل مدل‌های هوش مصنوعی خود برای ایجاد اطمینان در عملکرد آنها و کاهش خطرات به این امر دست خواهیم یافت.

آموزش و آموزش:

i-PRO به عنوان یک نیروی محرک در توسعه راه حل های هوش مصنوعی، تمرکز خود را بر آموزش نیروی کار، شرکا، مشتریان و صنعت به طور کلی در مورد قدرت، پتانسیل و ملاحظات اخلاقی هوش مصنوعی در محیط امنیت فیزیکی ادامه خواهد داد.

با تقویت همکاری و ایجاد گفتگوی باز با سهامداران کلیدی، i-PRO قادر خواهد بود به چالش‌های در حال ظهور رسیدگی کند و تغییرات معنی‌داری را در اکوسیستم هوش مصنوعی ایجاد کند.

ماساتو ناکائو، مدیرعامل i-PRO گفت: «در حالی که ما معتقدیم راه‌حل‌های هوش مصنوعی می‌توانند اتوماسیون و تصمیم‌گیری را افزایش دهند، ما همچنین معتقدیم که این نباید به قیمت استفاده مسئولانه، استانداردهای اخلاقی یا رعایت حریم خصوصی تمام شود.»

از آنجایی که صنعت امنیت فیزیکی به وعده‌های هوش مصنوعی ادامه می‌دهد، ما مشتاقانه منتظر همکاری با همکاران، شرکا و مشتریان خود هستیم تا فرهنگ توسعه و استفاده مسئولانه از هوش مصنوعی را تقویت کنیم.