یادداشت

بخش سوم – انقلاب دیجیتال «قسمت پانزدهم»

✍️واحد اقتصادی

 

  1. استفاده از دسته‌بندی‌های ما در پذیرش هوش مصنوعی
    چهار نوع کاربر می‌توانند برای چارچوب‌بندی مداخلاتی که به کسب‌وکارها کمک می‌کند تا این اهداف را محقق کنند، مورد استفاده قرار گیرند. برای مثال، گروه «بیش از حد اعتمادکننده» ممکن است به راهنمایی‌هایی درباره استفاده اخلاقی و دقیق از سیستم‌های هوش مصنوعی نیاز داشته باشد. گروه‌های «محتاط» و «نا آگاه» ممکن است به کمک در زمینه گزارش‌دهی، فرآیند شفافیت و اعتبارسنجی دقت نیاز داشته باشند. همه گروه‌ها باید بتوانند به آموزش دسترسی داشته باشند تا اطمینان حاصل شود کارکنان مهارت‌های لازم برای استفاده مناسب از هوش مصنوعی را دارند.
  2. با توجه به سرعت بالای توسعه فناوری در این حوزه، این دسته‌بندی‌ها انعطاف‌پذیر هستند و کسب‌وکارهایی که نا آگاه هستند ممکن است به سرعت مهارت‌های لازم را کسب کنند، یا کسب‌وکارهایی که پیاده‌سازان مؤثر هستند ممکن است با تکامل فناوری عقب بمانند.
  3. کمک به کسب‌وکارها برای تبدیل شدن به «پیاده‌سازان مؤثر» هوش مصنوعی
    یکی از اهداف کلیدی هم برای بخش خصوصی و هم برای دولت باید این باشد که کسب‌وکارها به «پیاده‌سازان مؤثر» تبدیل شوند. کسب‌وکارها باید بتوانند موارد کاربردی را شناسایی کنند که منافع تجاری به همراه دارد، مانند افزایش بهره‌وری؛ مهارت‌های لازم برای استفاده از کاربرد مناسب هوش مصنوعی برای نیازهای کسب‌وکار خود را کسب کنند و از ریسک‌هایی که مانع استفاده مطمئن می‌شوند آگاه بوده و آن‌ها را برطرف کنند.
  4. قانون‌گذاری هوش مصنوعی: ایجاد چارچوبی برای اعتماد
    بحث فعالی در مورد ضرورت قانون‌گذاری در حوزه هوش مصنوعی جریان دارد. به طور کلی، قانون‌گذاری مؤثر برای توسعه بخش‌های نوآورانه مفید است، به شرطی که بر اساس واقعیت‌ها باشد و هدف آن تشویق، نه محدود کردن، نوآوری باشد. ایجاد یک میدان بازی هم‌سطح، قوانین شفاف و رقابت عادلانه که توسط یک نهاد نظارتی قوی و بی‌طرف نظارت شود، اغلب برای توسعه اقتصادهای رقابتی حیاتی است.
  5. اتحادیه اروپا اخیراً در دسامبر ۲۰۲۳ مذاکرات سیاسی خود درباره «قانون هوش مصنوعی» (AI Act) را به پایان رساند. این قانون شامل تدابیری برای حفاظت از هوش مصنوعی عمومی، ممنوعیت امتیازدهی اجتماعی و استفاده از هوش مصنوعی برای دستکاری یا بهره‌برداری از آسیب‌پذیری‌های کاربران، ایجاد حق جدید برای مصرف‌کنندگان برای ثبت شکایت و دریافت توضیحات معنادار، و جریمه‌های احتمالی از ۳۵ میلیون یورو یا ۷٪ از گردش مالی جهانی تا ۷.۵ میلیون یورو یا ۱.۵٪ از گردش مالی است.
  6. در ایالات متحده، دولت رئیس‌جمهور بایدن در اکتبر ۲۰۲۳ دستور اجرایی درباره هوش مصنوعی صادر کرد که مجموعه‌ای از اقدامات در زمینه هوش مصنوعی از جمله ایمنی و امنیت، حمایت از مصرف‌کنندگان، حمایت از کارکنان و ترویج نوآوری و رقابت (از جمله کمک به کسب‌وکارهای کوچک برای تجاری‌سازی دستاوردهای هوش مصنوعی) را مشخص کرده است. یکی از محورهای کلیدی رویکرد کاخ سفید، توسعه استانداردها، ابزارها و آزمون‌ها برای اطمینان از ایمن، مطمئن و قابل اعتماد بودن سیستم‌های هوش مصنوعی است.
  7. در کانادا، دولت به دنبال ایجاد «چارچوب هوش مصنوعی مسئولانه» از طریق قانون جدید هوش مصنوعی و داده‌ها (AIDA) است، که سیستم‌های هوش مصنوعی با تأثیر بالا را ملزم می‌کند تا الزامات ایمنی و حقوق بشر را رعایت کنند؛ ایجاد یک کمیسیونر جدید هوش مصنوعی و داده‌ها به منظور هماهنگی سیاست‌گذاری و اجرای قوانین در همان زمان با پیشرفت فناوری؛ و ممنوعیت استفاده‌های بی‌پروا و مخرب از هوش مصنوعی. مشابه ایالات متحده، AIDA پس از یک رویکرد داوطلبانه کد رفتار توسعه یافته و در صورت تصویب قانون‌گذاران، می‌تواند در سال ۲۰۲۵ به اجرا درآید.
  8. بریتانیا رویکرد متفاوتی در پیش گرفته است. به جای معرفی قوانین خاص هوش مصنوعی، این کشور از نهادهای نظارتی می‌خواهد برنامه‌هایی در مورد نحوه پاسخگویی به ریسک‌ها و فرصت‌های هوش مصنوعی منتشر کنند و بودجه‌ای برای گسترش توانمندی‌های هوش مصنوعی آن‌ها فراهم می‌کند. دولت همچنین متعهد به مشاوره درباره «ثبت ریسک‌های هوش مصنوعی در سراسر اقتصاد» است و چارچوب قانونی آینده خود را مورد ارزیابی و مشاوره قرار خواهد داد.
  9. سایر ابتکارات شامل «انجمن فرصت‌های هوش مصنوعی» است که هدف آن تشویق پذیرش هوش مصنوعی در سراسر بخش خصوصی می‌باشد؛ و «مؤسسه ایمنی هوش مصنوعی» که بر ایمنی پیشرفته هوش مصنوعی در راستای منافع عمومی متمرکز است.

نوشته های مشابه

دکمه بازگشت به بالا