تیبر اساس گزارش OpenSecrets، یک سازمان غیرانتفاعی که بودجه کمپین و داده های لابی را ردیابی و منتشر می کند، تعداد گروه هایی که دولت فدرال ایالات متحده را در زمینه هوش مصنوعی لابی می کنند از سال 2022 تا 2023 تقریباً سه برابر شده و از 158 به 451 سازمان افزایش یافته است.. دادههای مربوط به کل مبلغ هزینه شده برای لابیگری توسط هر سازمان و مصاحبه با دو کارمند کنگره، دو طرفدار غیرانتفاعی آشنا با تلاشهای لابیگری هوش مصنوعی و دو کارشناس نامبرده نشان میدهد که شرکتهای بزرگ فناوری تاکنون بر تلاشها برای تأثیرگذاری بر قوانین بالقوه هوش مصنوعی تسلط داشتهاند. و در حالی که این شرکتها به طور عمومی از مقررات هوش مصنوعی حمایت میکنند، کارمندان و مدافعان کنگره میگویند در گفتگوهای خصوصی با مقامات، آنها تمایل دارند قوانین سبک و داوطلبانه را دنبال کنند.
در نوامبر 2022، OpenAI چت ربات بسیار محبوب ChatGPT خود را منتشر کرد. شش ماه بعد، محققان برجسته هوش مصنوعی و رهبران صنعت بیانیهای را امضا کردند و هشدار دادند که “خطر انقراض هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند همهگیریها و جنگ هستهای، یک اولویت جهانی باشد.” قانونگذاران سراسر جهان نشستند و متوجه شدند. رئیس جمهور ایالات متحده جو بایدن فرمان اجرایی گسترده در مورد هوش مصنوعی را امضا کرد. اتحادیه اروپا قانون برجسته هوش مصنوعی خود را اصلاح کرده است تا مقرراتی را برای مدلهایی که توسط رباتهای گفتگو مانند ChatGPT ارائه میشوند، ارائه دهد. و دولت بریتانیا اولین اجلاس امنیت هوش مصنوعی جهان را تشکیل داد.
بیشتر بخوانید: 3 مهم ترین نقطه عطف سیاست هوش مصنوعی در سال 2023
اگرچه کنگره هنوز هیچ قانونی برای هوش مصنوعی تصویب نکرده است، اما فعالیتهای مرتبط با هوش مصنوعی در هیل وجود داشته است، با چاک شومر، رهبر اکثریت سنا، “تالارهای تفاهم” را برای آموزش کنگره در مورد فناوری به سرعت در حال تکامل تشکیل داد. از آنجایی که قوانین اصلی فدرال در مورد هوش مصنوعی به عنوان یک امکان تلقی میشد، لابیها برای پیشبرد منافع سازمانهای خود به کاپیتول سرازیر شدند.
بدیهی است که کنگره برای مدت طولانی و طولانی در حال نوشتن لوایح هوش مصنوعی بوده است – این جدید نیست. چیزی که جدید است، مقیاسی است که کنگره در حال نوشتن و صدور لوایح است.» “این چیزی است که تعامل بیشتر را ترویج می کند.”
چهره های جدید
از 451 سازمانی که در سال 2023 برای هوش مصنوعی لابی کردند، 334 – تقریباً سه چهارم کل – برای اولین بار در سال 2023 این کار را انجام دادند. در میان انبوه سازمانهای جدید که با کارکنان و قانونگذاران در Hill رقابت میکردند، شرکتهای نسبتاً جوانی بودند که پیشرفتهترین مدلهای هوش مصنوعی مانند OpenAI، Anthropic و Cohere را ساختند.
داده های OpenSecrets یک معیار ناقص است. لابی های مرتبط با هوش مصنوعی را با جستجو در فرم های افشای لابی که سازمان ها باید هر سه ماه یکبار برای کلمات “هوش مصنوعی” یا “AI” ارسال کنند، ردیابی می کند. دو کارمند کنگره که تایم با آنها صحبت کرد، اظهار داشتند که تعداد لابیهایی که حضوری با آنها ملاقات کردهاند تقریباً ثابت مانده است. با این حال، آنها گفتند که هوش مصنوعی به موضوع بسیار رایج تری برای بحث تبدیل شده است. یکی از کارکنان کنگره که خواست نامش فاش نشود، گفت: «همه کسانی که میآیند و با ما صحبت میکنند و میخواهند در مورد هوش مصنوعی صحبت کنند.»
به عنوان مثال، شرکتهایی مانند شرکت کارتهای پرداخت ویزا، شرکت داروسازی GSK و شرکت حسابداری ارنست و یانگ در فرمهای افشای لابی خود به هوش مصنوعی اشاره کردهاند. منافع شرکت همچنین توسط انجمن های تجاری صنعتی مانند BSA The Software Alliance نمایندگی می شد. بر اساس تحلیل OpenSecrets، شرکت سرمایه گذاری خطرپذیر Andreessen Horowitz و شتاب دهنده استارتاپ Y Combinator نیز برای اولین بار در سال 2023 برای هوش مصنوعی لابی کردند.
در سال 2023، بسیاری از سازمان های جامعه مدنی نیز برای اولین بار در مورد مسائل هوش مصنوعی لابی کردند. فدراسیون کار آمریکا و کنگره سازمانهای صنعتی – بزرگترین فدراسیون اتحادیههای ایالات متحده – و همچنین NAACP، سازمان برتر حقوق مدنی، به این مبارزه پیوستند. سازمان های جامعه مدنی بیشتر فناوری محور مانند شبکه امیدیار و بنیاد موزیلا نیز به این مبارزه پیوسته اند. سازمانهای غیرانتفاعی متمرکز بر تهدیداتی که سیستمهای هوش مصنوعی آینده میتوانند برای امنیت عمومی ایجاد کنند، مانند مرکز سیاستهای هوش مصنوعی و مرکز اقدام در زمینه امنیت هوش مصنوعی، نیز برای اولین بار در سال جاری افشاگریهای لابیگری را ارائه کردند. در نهایت، تعدادی از دانشگاهها، مانند موسسه فناوری ماساچوست و دانشگاه ییل، لابیگری برای هوش مصنوعی در سال 2023 را گزارش کردهاند.
جیب های عمیق فناوری بزرگ
همه سازمانهای لابیگری که تعریف قانونی آنها فقط شامل بحث مستقیم قوانین یا مقررات خاص میشود، باید گزارش دهند که چقدر برای لابیگری هزینه کردهاند. با این حال، این دادهها تنها به عنوان یک کل کل گزارش میشوند، به این معنی که غیرممکن است که بدانیم هر سازمان چه مقدار از این کل را در مقایسه با سایر مسائل سیاستگذاری برای لابیگری مرتبط با هوش مصنوعی هزینه میکند. اما با این معیار خشن، بسیاری از تازهکارها از شرکتهای بزرگ فناوری که برای یک دهه هزینههای لابی خود را افزایش دادهاند، بسیار پیشی میگیرند.
طبق گزارش OpenSecrets، آمازون، متا، شرکت مادر گوگل، آلفابت و مایکروسافت در سال 2023 بیش از 10 میلیون دلار برای لابی کردن هزینه کردند. شورای صنعت فناوری اطلاعات 2.7 میلیون دلار برای لابی گری هزینه کرد. در مقایسه، گروه جامعه مدنی بنیاد موزیلا 120000 دلار و مرکز غیرانتفاعی صندوق اقدام ایمنی هوش مصنوعی 80000 دلار هزینه کردند.
حمزه چادری، متخصص سیاستگذاری ایالات متحده در مؤسسه آینده لایف، یک موسسه غیرانتفاعی که بر روی آن تمرکز دارد، گفت: با توجه به اینکه تعریف لابی گری فقط شامل صحبت با کارمندان در مورد قوانین خاص می شود، این اعداد احتمالاً میزان پولی را که شرکت های فناوری برای تأثیرگذاری بر قانون گذاران خرج می کنند، دست کم می گیرند. در مورد خطرات مرتبط با فناوری های پیشرفته
حامیان متعدد و منابع هیل پیشنهاد کردهاند که مبالغ هنگفتی که توسط شرکتهای بزرگ فناوری خرج میشود به آنها اجازه میدهد تا یک دستگاه لابی پیچیده بسازند که هنوز از تلاشهای سازمانهای دیگر پیشی میگیرد. یکی دیگر از کارکنان کنگره گفت: «همه این گروههای لابی امنیتی هوش مصنوعی وجود دارند که به وجود آمدهاند، و بسیاری از گروههای جامعه مدنی که اکنون شروع به انجام کارهای هوش مصنوعی خود کردهاند، اما بهترینها در این زمینه گروههای فناوری هستند.» همچنین به شرط ناشناس ماندن صحبت کرد زیرا آنها مجاز به صحبت در مورد بحث با لابیگران و مدافعان نیستند. این کارمند گفت که شرکتهای فناوری میتوانند بیشتر هزینه کنند و بنابراین برای لابیگران با تجربهتر که جزئیات فنی خلاصهشان را بهتر میفهمند و شبکه گستردهتری در Hill دارند، پرداخت کنند.
چودری میگوید: «هنوز هم میتوانم بگویم که جامعه مدنی – و شامل دانشگاهها، همه نوع مردم – از فناوریهای بزرگ پنج به یک، ده به یک خرج خواهد شد.
بیانیه های عمومی در مقابل لابی خصوصی
صنعت فناوری دقیقاً برای چه چیزی لابی می کند؟ برخی در این صنعت با مقررات AI مخالف هستند و استدلال می کنند که مقررات مانع پیشرفت فناوری می شود. در دسامبر 2023، بن هورویتز، یکی از بنیانگذاران شرکت سرمایه گذاری خطرپذیر Andreessen Horowitz، در یک پست وبلاگی نوشت که شرکت او از هر نامزد سیاسی که مخالف مقرراتی است که نوآوری را خفه می کند، حمایت می کند.
اما بسیاری از شرکتهایی که در توسعه هوش مصنوعی دخیل هستند، حداقل به طور عمومی، مقررات بالقوه را مورد بحث قرار دادهاند. رهبران شرکتهای نوظهوری که پیشرفتهترین مدلهای هوش مصنوعی را توسعه دادهاند، مانند سام آلتمن، مدیر عامل OpenAI و داریو آمادی، مدیر عامل آنتروپیک، هنگام شهادت در جلسات استماع و حضور در انجمنهای Insight، خواستار تنظیم مقررات شدهاند. رهبران شرکت های بزرگ فناوری برجسته تر اظهارات مشابهی را بیان کرده اند. به عنوان مثال، نایب رئیس مایکروسافت و رئیس، برد اسمیت، خواستار یک رژیم مجوز فدرال و یک آژانس جدید برای تنظیم سیستم عامل های قدرتمند هوش مصنوعی شده است. هم شرکتهای جدید هوش مصنوعی و هم غولهای فناوری تثبیتشده تعهدات داوطلبانه سازماندهی شده توسط کاخ سفید با هدف کاهش خطرات مرتبط با سیستمهای هوش مصنوعی را امضا کردهاند.
اما در جلسات پشت درهای بسته با دفاتر کنگره، همان شرکتها اغلب کمتر از برخی رویکردهای نظارتی حمایت میکنند، طبق منابع متعدد حاضر یا آشنا با چنین مکالماتی. به ویژه، شرکت ها تمایل دارند از مقررات بسیار سهل گیرانه یا داوطلبانه حمایت کنند. یکی از کارمندان کنگره گفت: “هر زمان که بخواهید یک شرکت فناوری را مجبور به انجام کاری اجباری کنید، آنها از انجام آن خودداری خواهند کرد.”
با این حال، برخی دیگر می گویند که در حالی که شرکت ها گاهی اوقات سعی می کنند منافع خود را به بهای منافع عمومی پیش ببرند، بیشتر لابی ها به ایجاد قانون معقول کمک می کند. کاوشیک میگوید: «اکثر شرکتها، وقتی درگیر میشوند، سعی میکنند هر کاری که میتوانند انجام دهند تا مطمئن شوند که ما امنیت ملی ایالات متحده را تقویت میکنیم یا رقابت اقتصادی ایالات متحده را تقویت میکنیم. در عین حال، بدیهی است که نتیجه مهم است.»
پیش از انتخابات ریاست جمهوری، کنگره زمان کمی برای تصویب لایحه مرتبط با هوش مصنوعی دارد. خواه قانون هوش مصنوعی در چند ماه آینده قبل از کنگره 119 تصویب شود یا نه، تلاشهای لابیگری همه احزاب احتمالاً با نزدیکتر شدن این قانون افزایش خواهد یافت.