یادداشت
بخش سوم – انقلاب دیجیتال «قسمت پانزدهم»

واحد اقتصادی
- استفاده از دستهبندیهای ما در پذیرش هوش مصنوعی
چهار نوع کاربر میتوانند برای چارچوببندی مداخلاتی که به کسبوکارها کمک میکند تا این اهداف را محقق کنند، مورد استفاده قرار گیرند. برای مثال، گروه «بیش از حد اعتمادکننده» ممکن است به راهنماییهایی درباره استفاده اخلاقی و دقیق از سیستمهای هوش مصنوعی نیاز داشته باشد. گروههای «محتاط» و «نا آگاه» ممکن است به کمک در زمینه گزارشدهی، فرآیند شفافیت و اعتبارسنجی دقت نیاز داشته باشند. همه گروهها باید بتوانند به آموزش دسترسی داشته باشند تا اطمینان حاصل شود کارکنان مهارتهای لازم برای استفاده مناسب از هوش مصنوعی را دارند. - با توجه به سرعت بالای توسعه فناوری در این حوزه، این دستهبندیها انعطافپذیر هستند و کسبوکارهایی که نا آگاه هستند ممکن است به سرعت مهارتهای لازم را کسب کنند، یا کسبوکارهایی که پیادهسازان مؤثر هستند ممکن است با تکامل فناوری عقب بمانند.
- کمک به کسبوکارها برای تبدیل شدن به «پیادهسازان مؤثر» هوش مصنوعی
یکی از اهداف کلیدی هم برای بخش خصوصی و هم برای دولت باید این باشد که کسبوکارها به «پیادهسازان مؤثر» تبدیل شوند. کسبوکارها باید بتوانند موارد کاربردی را شناسایی کنند که منافع تجاری به همراه دارد، مانند افزایش بهرهوری؛ مهارتهای لازم برای استفاده از کاربرد مناسب هوش مصنوعی برای نیازهای کسبوکار خود را کسب کنند و از ریسکهایی که مانع استفاده مطمئن میشوند آگاه بوده و آنها را برطرف کنند. - قانونگذاری هوش مصنوعی: ایجاد چارچوبی برای اعتماد
بحث فعالی در مورد ضرورت قانونگذاری در حوزه هوش مصنوعی جریان دارد. به طور کلی، قانونگذاری مؤثر برای توسعه بخشهای نوآورانه مفید است، به شرطی که بر اساس واقعیتها باشد و هدف آن تشویق، نه محدود کردن، نوآوری باشد. ایجاد یک میدان بازی همسطح، قوانین شفاف و رقابت عادلانه که توسط یک نهاد نظارتی قوی و بیطرف نظارت شود، اغلب برای توسعه اقتصادهای رقابتی حیاتی است. - اتحادیه اروپا اخیراً در دسامبر ۲۰۲۳ مذاکرات سیاسی خود درباره «قانون هوش مصنوعی» (AI Act) را به پایان رساند. این قانون شامل تدابیری برای حفاظت از هوش مصنوعی عمومی، ممنوعیت امتیازدهی اجتماعی و استفاده از هوش مصنوعی برای دستکاری یا بهرهبرداری از آسیبپذیریهای کاربران، ایجاد حق جدید برای مصرفکنندگان برای ثبت شکایت و دریافت توضیحات معنادار، و جریمههای احتمالی از ۳۵ میلیون یورو یا ۷٪ از گردش مالی جهانی تا ۷.۵ میلیون یورو یا ۱.۵٪ از گردش مالی است.
- در ایالات متحده، دولت رئیسجمهور بایدن در اکتبر ۲۰۲۳ دستور اجرایی درباره هوش مصنوعی صادر کرد که مجموعهای از اقدامات در زمینه هوش مصنوعی از جمله ایمنی و امنیت، حمایت از مصرفکنندگان، حمایت از کارکنان و ترویج نوآوری و رقابت (از جمله کمک به کسبوکارهای کوچک برای تجاریسازی دستاوردهای هوش مصنوعی) را مشخص کرده است. یکی از محورهای کلیدی رویکرد کاخ سفید، توسعه استانداردها، ابزارها و آزمونها برای اطمینان از ایمن، مطمئن و قابل اعتماد بودن سیستمهای هوش مصنوعی است.
- در کانادا، دولت به دنبال ایجاد «چارچوب هوش مصنوعی مسئولانه» از طریق قانون جدید هوش مصنوعی و دادهها (AIDA) است، که سیستمهای هوش مصنوعی با تأثیر بالا را ملزم میکند تا الزامات ایمنی و حقوق بشر را رعایت کنند؛ ایجاد یک کمیسیونر جدید هوش مصنوعی و دادهها به منظور هماهنگی سیاستگذاری و اجرای قوانین در همان زمان با پیشرفت فناوری؛ و ممنوعیت استفادههای بیپروا و مخرب از هوش مصنوعی. مشابه ایالات متحده، AIDA پس از یک رویکرد داوطلبانه کد رفتار توسعه یافته و در صورت تصویب قانونگذاران، میتواند در سال ۲۰۲۵ به اجرا درآید.
- بریتانیا رویکرد متفاوتی در پیش گرفته است. به جای معرفی قوانین خاص هوش مصنوعی، این کشور از نهادهای نظارتی میخواهد برنامههایی در مورد نحوه پاسخگویی به ریسکها و فرصتهای هوش مصنوعی منتشر کنند و بودجهای برای گسترش توانمندیهای هوش مصنوعی آنها فراهم میکند. دولت همچنین متعهد به مشاوره درباره «ثبت ریسکهای هوش مصنوعی در سراسر اقتصاد» است و چارچوب قانونی آینده خود را مورد ارزیابی و مشاوره قرار خواهد داد.
- سایر ابتکارات شامل «انجمن فرصتهای هوش مصنوعی» است که هدف آن تشویق پذیرش هوش مصنوعی در سراسر بخش خصوصی میباشد؛ و «مؤسسه ایمنی هوش مصنوعی» که بر ایمنی پیشرفته هوش مصنوعی در راستای منافع عمومی متمرکز است.




