گوگل به تازگی تصمیم گرفته است تا مدل هوش مصنوعی خود به نام "ژما" را از استودیو هوش مصنوعی خود کنار بکشد. این اقدام پس از آن صورت گرفت که سناتور مارشا بلکبرن، یکی از نمایندگان ایالت تنسی، ادعا کرد که این مدل به نوعی به افترا پرداخته است.
بلکبرن در یک بیانیه رسمی اعلام کرد که مدل "ژما" به اشتباه اطلاعاتی ارائه داده است که میتواند سبب ضرر و زیان برای برخی افراد گردد. این ادعا به سرعت مورد توجه رسانهها قرار گرفت و تبدیل به موضوع بحثهای گستردهای در سرتاسر کشور شد.
به همین دلیل، گوگل تحت فشار قرار گرفت تا اقداماتی انجام دهد و این تصمیم به حذف مدل "ژما" به عنوان یکی از راهکارهای فوری اتخاذ شد. این برای نخستین بار نیست که یک شرکت بزرگ فناوری با چالشهای حقوقی در ارتباط با مدلهای هوش مصنوعی خود روبهرو میشود.
با توجه به رشد سریع فناوریهای هوش مصنوعی و استفاده روزافزون از آنها در زمینههای مختلف، حساسیتها نسبت به مسئولیتهای قانونی و اخلاقی این فناوریها نیز به طور قابل توجهی افزایش یافته است.
این موضوع ممکن است بر نگرش عمومی نسبت به فناوریهای هوش مصنوعی تأثیر بگذارد و نگرانیهای بیشتری در خصوص دقت و انصاف این مدلها ایجاد کند. با توجه به حساسیتهای اجتماعی و قانونی خروج مدلهای مشابه همچنین میتواند پیامدهای مالی جدی برای شرکتهایی که در این حوزه فعالیت میکنند، به دنبال داشته باشد.
سناتور بلکبرن در ادامه افزود که این موضوع نیازمند توجه جدیتری از سوی قانونگذاران و مسئولین فناوری است. وی تأکید کرد که باید قوانین و مقرراتی در جهت مدیریت بهتر و مسئولانهتر فناوریهای هوش مصنوعی وضع شود تا از آسیبهای احتمالی جلوگیری گردد.
- سناتور بلکبرن خواستار بررسی بیشتر مدلهای مشابه و تبعات آنها شد.
- توجه به مسئولیتهای قانونی شرکتهای فناوری در زمینه هوش مصنوعی مورد تأکید قرار گرفت.
- تصمیم گوگل به واقعیتهای جدید و چالشهای حقوقی در این حوزه واکنش نشان میدهد.
- آینده مدلهای هوش مصنوعی ممکن است تحت تأثیر این مسائل قرار گیرد.
پس زمینه
فناوریهای هوش مصنوعی به سرعت در حال گسترش هستند و در بسیاری از صنایع و کاربریها وارد شدهاند. این فناوریها میتوانند از تشخیص بیماریها در پزشکی گرفته تا تحلیل دادههای اقتصادی و حتی تولید محتوا مورد استفاده قرار گیرند. با این حال، افزایش سوالات حقوقی و اخلاقی در مورد استفاده از این مدلها و احتمال آسیب به افراد و گروههای خاص قابل توجه است.
چالشها و مسائلی از جمله افترا، نژادپرستی، و تبعیض در این فناوریها، قانونگذاران را به فکر ایجاد قوانین جدید و اقدامات نظارتی بیشتر وا داشته است. به طور خاص، مدلهایی که به نوعی به صورت خودکار اطلاعات را تولید میکنند، میتواند به سادگی خطاکار باشند و موجب ایجاد بحرانهای حقوقی شوند.
شرکتهای فناوری مانند گوگل، مایکروسافت و آمازون در حال تلاش برای پیشبرد استفاده مسئولانه از فناوریهای هوش مصنوعی هستند. با این حال، حوادثی از قبیل حذف مدل "ژما" نشان میدهد که تا چه حد فناوریها میتوانند در معرض مشکلات جدی قرار بگیرند.
با توجه به نظرسنجیها و پژوهشهای اخیر، کاربران به شدت نگران این هستنند که آیا میتوانند به این فناوریها اعتماد کنند یا خیر. همچنین، ادعاهای مطرح شده به طور خاص نسبت به شرکتهای بزرگ فناوری ممکن است به شکلگیری تصویری منفی از این صنعت در جامعه منجر شود.