چرا نخبگان از OpenAI فرار کردند؟
یک نکته در تمامی کسانی که از OpenAI خارج شدند مشترک است ، همه آنها بعدها بر روی پروژه ایمنی هوش مصنوعی یا موارد مرتبط با آن د رحال فعالیت هستند و این حرکت دس...
لیست مطالب
- تغییر مسیر OpenAI از یک موسسه غیرانتفاعی به سمت یک شرکت سودآور
- چرا برخی نخبگان OpenAI را ترک کردند؟
- ۱. تمرکز بیشتر بر سودآوری به جای پژوهشهای بنیادی
- ۲. دور شدن از اصول اخلاقی و مسئولیتپذیری
- خروج استعدادها و اثرات آن بر تحقیقات OpenAI
- همکاریهای استراتژیک با غولهای فناوری: شمشیری دو لبه؟
- فرار نخبگان: چالشی برای آینده هوش مصنوعی
- برخی از افراد تأثیر گذارد که OpenAI را ترک کردند
OpenAI، به عنوان یکی از برجستهترین موسسات هوش مصنوعی جهان، در چند سال اخیر توجهات زیادی را به خود جلب کرده است. هدف اصلی این شرکت، توسعه هوش مصنوعی عمومی (AGI) است، یعنی یک سیستم هوشمند که بتواند به صورت جامع و حتی فراتر از تواناییهای انسان، در بسیاری از زمینهها عمل کند. با این حال، این مسیر جذاب باعث نشد که برخی از استعدادهای بزرگ از OpenAI فرار نکنند. در سالهای اخیر، شاهد خروج برخی از متخصصان برجسته از این شرکت بودهایم، و بسیاری از این خروجها به دلیل تغییرات راهبردی و فلسفی در اهداف و روشهای OpenAI بوده است.
تغییر مسیر OpenAI از یک موسسه غیرانتفاعی به سمت یک شرکت سودآور
OpenAI در ابتدا به عنوان یک موسسه غیرانتفاعی تأسیس شد. این شرکت وعده داد که فناوریهای هوش مصنوعی را به نفع همه مردم توسعه دهد و از خطرات احتمالی سوءاستفاده از هوش مصنوعی جلوگیری کند. اما در سال ۲۰۱۹، این موسسه مسیر خود را به یک ساختار «محدود سود» تغییر داد. این تغییر به منظور جذب سرمایهگذاریهای بزرگتر و سرعت بخشیدن به تحقیقات در حوزه AGI انجام شد. در حالی که این تغییر ممکن است برای توسعه فناوریهای پیچیده و قدرتمند ضروری بوده باشد، اما برای بسیاری از محققان و متخصصان یک حرکت غیرمنتظره و غیرقابل قبول بود.
افرادی که OpenAI را ترک کردند، دلیل اصلی خروج خود را تغییر در اولویتها و ارزشهای شرکت عنوان کردهاند. به گفته آنها، OpenAI از اصول اولیه خود که بر مسئولیتپذیری و شفافیت تمرکز داشت، دور شده و بیشتر به دنبال کسب سود و رقابت با دیگر شرکتهای بزرگ مانند گوگل و مایکروسافت است.
چرا برخی نخبگان OpenAI را ترک کردند؟
یکی از اصلیترین دلایل خروج نخبگان از OpenAI، تغییر در مأموریت و ارزشهای شرکت است. این تغییر باعث شد که برخی از محققان احساس کنند که تلاشهایشان دیگر با اهداف اولیه شرکت همخوانی ندارد. علاوه بر این، برخی معتقدند که این تغییرات به زیان پژوهشهای اخلاقی و مسئولانه در حوزه هوش مصنوعی بوده است.
۱. تمرکز بیشتر بر سودآوری به جای پژوهشهای بنیادی
بسیاری از محققانی که OpenAI را ترک کردند، معتقدند که تمرکز شرکت بیشتر به سمت سودآوری و توسعه محصولات قابل فروش معطوف شده است. این تغییر تمرکز، به ویژه برای افرادی که علاقهمند به انجام پژوهشهای بنیادی و پیشرو در زمینه هوش مصنوعی هستند، باعث ناامیدی شده است. در حالی که شرکتهای بزرگ فناوری به دنبال تولید محصولات هستند، این محققان ترجیح میدهند بر روی مسائلی مانند اخلاق در هوش مصنوعی، عدالت در الگوریتمها و جلوگیری از سوءاستفادههای احتمالی تمرکز کنند.
۲. دور شدن از اصول اخلاقی و مسئولیتپذیری
بسیاری از محققان بر این باور بودند که OpenAI باید به عنوان یک پیشرو در مسئولیتپذیری هوش مصنوعی عمل کند و الگویی برای دیگر شرکتهای فناوری باشد. اما با تغییر مسیر شرکت به سمت رقابت با دیگر غولهای فناوری و به ویژه پس از همکاریهای استراتژیک با مایکروسافت، برخی معتقدند که این اصول تا حدی نادیده گرفته شدهاند.
خروج استعدادها و اثرات آن بر تحقیقات OpenAI
خروج این نخبگان تأثیرات عمیقی بر تحقیقات و روند پیشرفت OpenAI داشته است. برخی از این خروجها به اندازهای برجسته بوده که توجه رسانهها و جامعه علمی را به خود جلب کرده است. یکی از نمونههای برجسته، خروج ایلون ماسک، یکی از بنیانگذاران OpenAI، بود که دلایل آن اختلاف نظرهای فلسفی و استراتژیک در خصوص مسیر شرکت عنوان شد.
همچنین، محققان دیگری مانند داریان رافائل و تیمن اومالای، که هر دو از متخصصان برجسته هوش مصنوعی بودند، از OpenAI جدا شدند و به نهادهای دیگری پیوستند که بیشتر به مسئولیتپذیری و تحقیقات اخلاقی در حوزه هوش مصنوعی معتقد هستند. این خروجها به وضوح نشان میدهد که تغییرات در OpenAI نه تنها به دلایل مالی بلکه به دلیل تغییرات اساسی در ارزشها و اهداف بوده است.
همکاریهای استراتژیک با غولهای فناوری: شمشیری دو لبه؟
یکی دیگر از دلایل خروج متخصصان از OpenAI، همکاریهای این شرکت با شرکتهای بزرگ فناوری است. مایکروسافت به عنوان یکی از بزرگترین سرمایهگذاران OpenAI، نقش مهمی در توسعه فناوریهای این شرکت بازی میکند. این همکاریها، اگرچه سرمایه و منابع بزرگی را برای OpenAI به همراه آورده است، اما در عین حال نگرانیهایی را در خصوص نحوه استفاده از این فناوریها و احتمال سوءاستفاده از قدرت هوش مصنوعی به وجود آورده است.
محققانی که به سمت این همکاریها نگاه انتقادی دارند، معتقدند که وابستگی به غولهای فناوری ممکن است اهداف بلندمدت و عمومی OpenAI را تحتالشعاع قرار دهد. به عبارت دیگر، چنین همکاریهایی میتواند باعث شود که OpenAI به جای تمرکز بر منافع جهانی، بیشتر به دنبال تأمین منافع سرمایهگذاران و شرکای تجاری خود باشد.
فرار نخبگان: چالشی برای آینده هوش مصنوعی
خروج نخبگان از OpenAI تنها یک مسئله درونی برای این شرکت نیست، بلکه بازتابدهنده تغییراتی در کل صنعت هوش مصنوعی است. این خروجها نشاندهنده شکاف بین محققانی است که به دنبال توسعه مسئولانه و اخلاقی فناوریهای هوش مصنوعی هستند و شرکتهایی که بیشتر به دنبال کسب سود و رقابت در بازار جهانی هستند.
این وضعیت، به ویژه در حوزه هوش مصنوعی، که یک فناوری با پتانسیل تغییرات بنیادین در جوامع و اقتصادها است، اهمیت ویژهای دارد. اگر چه OpenAI همچنان به عنوان یک نیروی پیشرو در توسعه AGI باقی مانده است، اما این خروجها میتواند تأثیرات بلندمدتی بر توانایی این شرکت در جذب و حفظ استعدادهای برتر داشته باشد.
برخی از افراد تأثیر گذارد که OpenAI را ترک کردند
- ایلان ماسک: ماسک که یکی از بنیانگذاران اصلی OpenAI بود، در سال ۲۰۱۸ از هیئت مدیره این شرکت خارج شد. او اظهار داشت که دلایلش شامل تعارضات احتمالی میان کارهایش در تسلا و OpenAI بود. ماسک همچنین نگرانیهایی در مورد جهتگیریهای OpenAI و خطرات بالقوه هوش مصنوعی مطرح کرده است.
- اندری کارپاتی (Andrej Karpathy): او یکی از پژوهشگران ارشد OpenAI و متخصص یادگیری عمیق بود که به تسلا پیوست و به عنوان مدیر بخش هوش مصنوعی و بینایی کامپیوتری تسلا خدمت کرد. او بعدها از تسلا نیز جدا شد، اما در اوایل ۲۰۲۳ اعلام کرد که مجدداً به OpenAI بازمیگردد تا به توسعه پروژههای جدید کمک کند.
- دنیل آمودای (Dario Amodei) و اعضای تیم Anthropic: دنیل آمودای و چند نفر دیگر از اعضای کلیدی OpenAI، از جمله کاترین آمودای، شرکت OpenAI را ترک کرده و در سال ۲۰۲۱ استارتاپ Anthropic را تأسیس کردند. این شرکت تمرکز خود را بر توسعه مدلهای هوش مصنوعی امن و کاهش خطرات مرتبط با این فناوری قرار داده است.
- ایلیا سوتسکور (Ilya Sutskever): یکی از بنیانگذاران و دانشمندان ارشد OpenAI که اخیراً در سال ۲۰۲۴ اعلام کرد که شرکت را ترک خواهد کرد. او در حال حاضر در حال پیگیری پروژههای مرتبط با ایمنی هوش مصنوعی است.
-
. Jack Clark (مدیر سیاستگذاری سابق OpenAI) جک کلارک، که به مدت چندین سال به عنوان مدیر سیاستگذاری OpenAI خدمت کرد، در سال ۲۰۲۱ از شرکت جدا شد. او تمرکز خود را بر اخلاق و سیاستگذاری هوش مصنوعی گذاشت و نگرانیهایی در مورد سرعت توسعه هوش مصنوعی بدون در نظر گرفتن جنبههای اخلاقی و تأثیرات اجتماعی آن داشت. او بعدها به مؤسسات و گروههای تحقیقاتی دیگر پیوست که بیشتر بر ایمنی و مسئولیتپذیری هوش مصنوعی تمرکز دارند.
-
Mira Murati (مدیر فناوری سابق OpenAI)میرا موراتا یکی از مدیران فناوری برجسته در OpenAI بود که به شدت در پروژههای مرتبط با توسعه هوش مصنوعی و امنیت آن فعالیت داشت. او در سال ۲۰۲۲ از OpenAI جدا شد تا تمرکز خود را بر روی پروژههای مستقل در حوزه اخلاق و ایمنی هوش مصنوعی بگذارد. او همچنین از تصمیمات تجاری و رقابتی OpenAI انتقاد کرده و معتقد است که توسعه فناوری باید بیشتر بر منافع عمومی تمرکز کند تا سود تجاری.
-
Ian Goodfellow (خالق GANs و محقق سابق OpenAI) ایان گودفلو، یکی از محققان برجسته هوش مصنوعی و خالق شبکههای خصمانه مولد (GANs)، نیز مدت کوتاهی در OpenAI مشغول به کار بود. او به دلایل مختلف از جمله تغییرات در استراتژی شرکت و همکاریهای تجاری با شرکتهای بزرگ فناوری از OpenAI جدا شد. گودفلو همچنین به نگرانیهایی در مورد ایمنی و اخلاق در توسعه هوش مصنوعی اشاره کرد و بعدها به دانشگاه و پروژههای مستقل پیوست.
-
John Schulman (محقق ارشد سابق OpenAI) جان شولمن، یکی از افراد برجسته در توسعه روشهای یادگیری تقویتی در OpenAI، در سال ۲۰۱۹ از این شرکت جدا شد. او نقش کلیدی در توسعه مدلهای پیشرفته هوش مصنوعی در OpenAI داشت، اما به دلیل تغییر در جهتگیری شرکت و تمرکز بیشتر بر سود تجاری، تصمیم به ترک شرکت گرفت و به پروژههای تحقیقاتی مستقل و غیرانتفاعی پیوست که تمرکز بیشتری بر اخلاق و ایمنی هوش مصنوعی داشتند.
یک نکته در تمامی کسانی که از OpenAI خارج شدند مشترک است ، همه آنها بعدها بر روی پروژه ایمنی هوش مصنوعی یا موارد مرتبط با آن د رحال فعالیت هستند و این حرکت دسته جمعی به معنای تغییر جهت نامتناسب شرکت بوده است ، برای بسیاری از محققان و دانشمندان برجستهای که در ابتدا به OpenAI پیوسته بودند، این تغییر جهت به معنای دور شدن از اهداف اصلی و اخلاقی شرکت بود. آنها شاهد بودند که توسعه هوش مصنوعی به جای تحقیق در مورد ایمنی و اثرات بلندمدت آن، به سمت توسعه محصولاتی با کاربردهای تجاری و سریع در حال حرکت است. این مسئله باعث شد بسیاری از این افراد احساس کنند که شرکت دیگر به اصول اولیه خود پایبند نیست.
پروژههای OpenAI در جهت توسعه هوش مصنوعی عمومی (AGI) که میتواند به عنوان یک سیستم هوشمند بسیار پیشرفته و حتی فراتر از تواناییهای انسان عمل کند، خود ذاتاً دارای خطرات بالقوه بزرگی هستند. بسیاری از محققانی که از OpenAI خارج شدهاند، نگران این موضوع بودند که توسعه AGI بدون در نظر گرفتن ایمنی و کنترلهای اخلاقی ممکن است به عواقب غیرقابل پیشبینی منجر شود.بسیاری از افرادی که OpenAI را ترک کردهاند، معتقدند که ایمنی هوش مصنوعی باید اولویت اول در توسعه AGI باشد، اما با تغییرات تجاری در OpenAI، این مسئله به نوعی نادیده گرفته شده است.
این افراد، که در اوایل راهاندازی OpenAI امیدوار بودند که این شرکت بتواند به عنوان یک نیروی اخلاقی در دنیای هوش مصنوعی عمل کند، با مشاهده تغییرات در مأموریت شرکت به سوی اهداف تجاری، احساس کردند که باید به طور مستقیم در زمینه ایمنی و اخلاق هوش مصنوعی فعالیت کنند. به همین دلیل، بسیاری از آنها پروژههایی مانند Anthropic، Alignment Research Center و سایر سازمانهای مرتبط با ایمنی و اخلاق هوش مصنوعی را راهاندازی کردند تا این خلأ را پر کنند.
اگر هنوز درباره شام مخفیانهای که جرقه تأسیس OpenAI را زد چیزی نمی دانید اینجا کلیک کنید
دیدگاه های مربوط به این مقاله (برای ارسال دیدگاه در سایت حتما باید عضو باشید و پروفایل کاربری شما تکمیل شده باشد)