چرا نخبگان از OpenAI فرار کردند؟

یک نکته در تمامی کسانی که از OpenAI خارج شدند مشترک است ، همه آنها بعدها بر روی پروژه ایمنی هوش مصنوعی یا موارد مرتبط با آن د رحال فعالیت هستند و این حرکت دس...

انتشار: , زمان مطالعه: 9 دقیقه
چرا نخبگان از OpenAI فرار کردند؟
دسته بندی: کسب و کار تعداد بازدید: 70

OpenAI، به عنوان یکی از برجسته‌ترین موسسات هوش مصنوعی جهان، در چند سال اخیر توجهات زیادی را به خود جلب کرده است. هدف اصلی این شرکت، توسعه هوش مصنوعی عمومی (AGI) است، یعنی یک سیستم هوشمند که بتواند به صورت جامع و حتی فراتر از توانایی‌های انسان، در بسیاری از زمینه‌ها عمل کند. با این حال، این مسیر جذاب باعث نشد که برخی از استعدادهای بزرگ از OpenAI فرار نکنند. در سال‌های اخیر، شاهد خروج برخی از متخصصان برجسته از این شرکت بوده‌ایم، و بسیاری از این خروج‌ها به دلیل تغییرات راهبردی و فلسفی در اهداف و روش‌های OpenAI بوده است.

تغییر مسیر OpenAI از یک موسسه غیرانتفاعی به سمت یک شرکت سودآور

OpenAI در ابتدا به عنوان یک موسسه غیرانتفاعی تأسیس شد. این شرکت وعده داد که فناوری‌های هوش مصنوعی را به نفع همه مردم توسعه دهد و از خطرات احتمالی سوءاستفاده از هوش مصنوعی جلوگیری کند. اما در سال ۲۰۱۹، این موسسه مسیر خود را به یک ساختار «محدود سود» تغییر داد. این تغییر به منظور جذب سرمایه‌گذاری‌های بزرگتر و سرعت بخشیدن به تحقیقات در حوزه AGI انجام شد. در حالی که این تغییر ممکن است برای توسعه فناوری‌های پیچیده و قدرتمند ضروری بوده باشد، اما برای بسیاری از محققان و متخصصان یک حرکت غیرمنتظره و غیرقابل قبول بود.

افرادی که OpenAI را ترک کردند، دلیل اصلی خروج خود را تغییر در اولویت‌ها و ارزش‌های شرکت عنوان کرده‌اند. به گفته آنها، OpenAI از اصول اولیه خود که بر مسئولیت‌پذیری و شفافیت تمرکز داشت، دور شده و بیشتر به دنبال کسب سود و رقابت با دیگر شرکت‌های بزرگ مانند گوگل و مایکروسافت است.

چرا برخی نخبگان OpenAI را ترک کردند؟

یکی از اصلی‌ترین دلایل خروج نخبگان از OpenAI، تغییر در مأموریت و ارزش‌های شرکت است. این تغییر باعث شد که برخی از محققان احساس کنند که تلاش‌هایشان دیگر با اهداف اولیه شرکت همخوانی ندارد. علاوه بر این، برخی معتقدند که این تغییرات به زیان پژوهش‌های اخلاقی و مسئولانه در حوزه هوش مصنوعی بوده است.

۱. تمرکز بیشتر بر سودآوری به جای پژوهش‌های بنیادی

بسیاری از محققانی که OpenAI را ترک کردند، معتقدند که تمرکز شرکت بیشتر به سمت سودآوری و توسعه محصولات قابل فروش معطوف شده است. این تغییر تمرکز، به ویژه برای افرادی که علاقه‌مند به انجام پژوهش‌های بنیادی و پیشرو در زمینه هوش مصنوعی هستند، باعث ناامیدی شده است. در حالی که شرکت‌های بزرگ فناوری به دنبال تولید محصولات هستند، این محققان ترجیح می‌دهند بر روی مسائلی مانند اخلاق در هوش مصنوعی، عدالت در الگوریتم‌ها و جلوگیری از سوءاستفاده‌های احتمالی تمرکز کنند.

۲. دور شدن از اصول اخلاقی و مسئولیت‌پذیری

بسیاری از محققان بر این باور بودند که OpenAI باید به عنوان یک پیشرو در مسئولیت‌پذیری هوش مصنوعی عمل کند و الگویی برای دیگر شرکت‌های فناوری باشد. اما با تغییر مسیر شرکت به سمت رقابت با دیگر غول‌های فناوری و به ویژه پس از همکاری‌های استراتژیک با مایکروسافت، برخی معتقدند که این اصول تا حدی نادیده گرفته شده‌اند.

خروج استعدادها و اثرات آن بر تحقیقات OpenAI

خروج این نخبگان تأثیرات عمیقی بر تحقیقات و روند پیشرفت OpenAI داشته است. برخی از این خروج‌ها به اندازه‌ای برجسته بوده که توجه رسانه‌ها و جامعه علمی را به خود جلب کرده است. یکی از نمونه‌های برجسته، خروج ایلون ماسک، یکی از بنیان‌گذاران OpenAI، بود که دلایل آن اختلاف نظرهای فلسفی و استراتژیک در خصوص مسیر شرکت عنوان شد.

همچنین، محققان دیگری مانند داریان رافائل و تیمن اومالای، که هر دو از متخصصان برجسته هوش مصنوعی بودند، از OpenAI جدا شدند و به نهادهای دیگری پیوستند که بیشتر به مسئولیت‌پذیری و تحقیقات اخلاقی در حوزه هوش مصنوعی معتقد هستند. این خروج‌ها به وضوح نشان می‌دهد که تغییرات در OpenAI نه تنها به دلایل مالی بلکه به دلیل تغییرات اساسی در ارزش‌ها و اهداف بوده است.

همکاری‌های استراتژیک با غول‌های فناوری: شمشیری دو لبه؟

یکی دیگر از دلایل خروج متخصصان از OpenAI، همکاری‌های این شرکت با شرکت‌های بزرگ فناوری است. مایکروسافت به عنوان یکی از بزرگترین سرمایه‌گذاران OpenAI، نقش مهمی در توسعه فناوری‌های این شرکت بازی می‌کند. این همکاری‌ها، اگرچه سرمایه و منابع بزرگی را برای OpenAI به همراه آورده است، اما در عین حال نگرانی‌هایی را در خصوص نحوه استفاده از این فناوری‌ها و احتمال سوءاستفاده از قدرت هوش مصنوعی به وجود آورده است.

محققانی که به سمت این همکاری‌ها نگاه انتقادی دارند، معتقدند که وابستگی به غول‌های فناوری ممکن است اهداف بلندمدت و عمومی OpenAI را تحت‌الشعاع قرار دهد. به عبارت دیگر، چنین همکاری‌هایی می‌تواند باعث شود که OpenAI به جای تمرکز بر منافع جهانی، بیشتر به دنبال تأمین منافع سرمایه‌گذاران و شرکای تجاری خود باشد.

فرار نخبگان: چالشی برای آینده هوش مصنوعی

خروج نخبگان از OpenAI تنها یک مسئله درونی برای این شرکت نیست، بلکه بازتاب‌دهنده تغییراتی در کل صنعت هوش مصنوعی است. این خروج‌ها نشان‌دهنده شکاف بین محققانی است که به دنبال توسعه مسئولانه و اخلاقی فناوری‌های هوش مصنوعی هستند و شرکت‌هایی که بیشتر به دنبال کسب سود و رقابت در بازار جهانی هستند.

این وضعیت، به ویژه در حوزه هوش مصنوعی، که یک فناوری با پتانسیل تغییرات بنیادین در جوامع و اقتصادها است، اهمیت ویژه‌ای دارد. اگر چه OpenAI همچنان به عنوان یک نیروی پیشرو در توسعه AGI باقی مانده است، اما این خروج‌ها می‌تواند تأثیرات بلندمدتی بر توانایی این شرکت در جذب و حفظ استعدادهای برتر داشته باشد.

برخی از افراد تأثیر گذارد که OpenAI را ترک کردند

  1. ایلان ماسک: ماسک که یکی از بنیان‌گذاران اصلی OpenAI بود، در سال ۲۰۱۸ از هیئت مدیره این شرکت خارج شد. او اظهار داشت که دلایلش شامل تعارضات احتمالی میان کارهایش در تسلا و OpenAI بود. ماسک همچنین نگرانی‌هایی در مورد جهت‌گیری‌های OpenAI و خطرات بالقوه هوش مصنوعی مطرح کرده است.
  2. اندری کارپاتی (Andrej Karpathy): او یکی از پژوهشگران ارشد OpenAI و متخصص یادگیری عمیق بود که به تسلا پیوست و به عنوان مدیر بخش هوش مصنوعی و بینایی کامپیوتری تسلا خدمت کرد. او بعدها از تسلا نیز جدا شد، اما در اوایل ۲۰۲۳ اعلام کرد که مجدداً به OpenAI بازمی‌گردد تا به توسعه پروژه‌های جدید کمک کند​.
  3. دنیل آمودای (Dario Amodei) و اعضای تیم Anthropic: دنیل آمودای و چند نفر دیگر از اعضای کلیدی OpenAI، از جمله کاترین آمودای، شرکت OpenAI را ترک کرده و در سال ۲۰۲۱ استارتاپ Anthropic را تأسیس کردند. این شرکت تمرکز خود را بر توسعه مدل‌های هوش مصنوعی امن و کاهش خطرات مرتبط با این فناوری قرار داده است​.
  4. ایلیا سوتسکور (Ilya Sutskever): یکی از بنیان‌گذاران و دانشمندان ارشد OpenAI که اخیراً در سال ۲۰۲۴ اعلام کرد که شرکت را ترک خواهد کرد. او در حال حاضر در حال پیگیری پروژه‌های مرتبط با ایمنی هوش مصنوعی است​.
  5. . Jack Clark (مدیر سیاست‌گذاری سابق OpenAI) جک کلارک، که به مدت چندین سال به عنوان مدیر سیاست‌گذاری OpenAI خدمت کرد، در سال ۲۰۲۱ از شرکت جدا شد. او تمرکز خود را بر اخلاق و سیاست‌گذاری هوش مصنوعی گذاشت و نگرانی‌هایی در مورد سرعت توسعه هوش مصنوعی بدون در نظر گرفتن جنبه‌های اخلاقی و تأثیرات اجتماعی آن داشت. او بعدها به مؤسسات و گروه‌های تحقیقاتی دیگر پیوست که بیشتر بر ایمنی و مسئولیت‌پذیری هوش مصنوعی تمرکز دارند.

  6. Mira Murati (مدیر فناوری سابق OpenAI)میرا موراتا یکی از مدیران فناوری برجسته در OpenAI بود که به شدت در پروژه‌های مرتبط با توسعه هوش مصنوعی و امنیت آن فعالیت داشت. او در سال ۲۰۲۲ از OpenAI جدا شد تا تمرکز خود را بر روی پروژه‌های مستقل در حوزه اخلاق و ایمنی هوش مصنوعی بگذارد. او همچنین از تصمیمات تجاری و رقابتی OpenAI انتقاد کرده و معتقد است که توسعه فناوری باید بیشتر بر منافع عمومی تمرکز کند تا سود تجاری.

  7. Ian Goodfellow (خالق GANs و محقق سابق OpenAI) ایان گودفلو، یکی از محققان برجسته هوش مصنوعی و خالق شبکه‌های خصمانه مولد (GANs)، نیز مدت کوتاهی در OpenAI مشغول به کار بود. او به دلایل مختلف از جمله تغییرات در استراتژی شرکت و همکاری‌های تجاری با شرکت‌های بزرگ فناوری از OpenAI جدا شد. گودفلو همچنین به نگرانی‌هایی در مورد ایمنی و اخلاق در توسعه هوش مصنوعی اشاره کرد و بعدها به دانشگاه و پروژه‌های مستقل پیوست.

  8. John Schulman (محقق ارشد سابق OpenAI) جان شولمن، یکی از افراد برجسته در توسعه روش‌های یادگیری تقویتی در OpenAI، در سال ۲۰۱۹ از این شرکت جدا شد. او نقش کلیدی در توسعه مدل‌های پیشرفته هوش مصنوعی در OpenAI داشت، اما به دلیل تغییر در جهت‌گیری شرکت و تمرکز بیشتر بر سود تجاری، تصمیم به ترک شرکت گرفت و به پروژه‌های تحقیقاتی مستقل و غیرانتفاعی پیوست که تمرکز بیشتری بر اخلاق و ایمنی هوش مصنوعی داشتند.

یک نکته در تمامی کسانی که از OpenAI خارج شدند مشترک است ، همه آنها بعدها بر روی پروژه ایمنی هوش مصنوعی یا موارد مرتبط با آن د رحال فعالیت هستند و این حرکت دسته جمعی به معنای تغییر جهت نامتناسب شرکت بوده است ،  برای بسیاری از محققان و دانشمندان برجسته‌ای که در ابتدا به OpenAI پیوسته بودند، این تغییر جهت به معنای دور شدن از اهداف اصلی و اخلاقی شرکت بود. آنها شاهد بودند که توسعه هوش مصنوعی به جای تحقیق در مورد ایمنی و اثرات بلندمدت آن، به سمت توسعه محصولاتی با کاربردهای تجاری و سریع در حال حرکت است. این مسئله باعث شد بسیاری از این افراد احساس کنند که شرکت دیگر به اصول اولیه خود پایبند نیست.

پروژه‌های OpenAI در جهت توسعه هوش مصنوعی عمومی (AGI) که می‌تواند به عنوان یک سیستم هوشمند بسیار پیشرفته و حتی فراتر از توانایی‌های انسان عمل کند، خود ذاتاً دارای خطرات بالقوه بزرگی هستند. بسیاری از محققانی که از OpenAI خارج شده‌اند، نگران این موضوع بودند که توسعه AGI بدون در نظر گرفتن ایمنی و کنترل‌های اخلاقی ممکن است به عواقب غیرقابل پیش‌بینی منجر شود.بسیاری از افرادی که OpenAI را ترک کرده‌اند، معتقدند که ایمنی هوش مصنوعی باید اولویت اول در توسعه AGI باشد، اما با تغییرات تجاری در OpenAI، این مسئله به نوعی نادیده گرفته شده است.

این افراد، که در اوایل راه‌اندازی OpenAI امیدوار بودند که این شرکت بتواند به عنوان یک نیروی اخلاقی در دنیای هوش مصنوعی عمل کند، با مشاهده تغییرات در مأموریت شرکت به سوی اهداف تجاری، احساس کردند که باید به طور مستقیم در زمینه ایمنی و اخلاق هوش مصنوعی فعالیت کنند. به همین دلیل، بسیاری از آنها پروژه‌هایی مانند Anthropic، Alignment Research Center و سایر سازمان‌های مرتبط با ایمنی و اخلاق هوش مصنوعی را راه‌اندازی کردند تا این خلأ را پر کنند.

اگر هنوز درباره شام مخفیانه‌ای که جرقه تأسیس OpenAI را زد چیزی نمی دانید اینجا کلیک کنید


دیدگاه های مربوط به این مقاله (برای ارسال دیدگاه در سایت حتما باید عضو باشید و پروفایل کاربری شما تکمیل شده باشد)