سیاست و بازاریابی - زومیت / یکی دیگر از محققان ارشد ایمنی در OpenAI، این شرکت را به مقصد دیگری ترک میکند.
لیلیان ونگ، یکی دیگر از پژوهشگران ارشد ایمنی OpenAI، اعلام کرد که از این استارتاپ جدا میشود. ونگ از ماه آگوست (مرداد و شهریور) بهعنوان معاون تحقیقات و ایمنی فعالیت میکرد و پیش از آن، سرپرست تیم سیستمهای ایمنی OpenAI بود.
ونگ در پستی در ایکس گفت: «پس از هفت سال بودن در OpenAI، احساس میکنم آمادهام تا دوباره شروع کنم و چیز جدیدی را تجربه کنم.» ونگ گفت که آخرین روز کاریاش 15 نوامبر (25 آبان) خواهد بود، اما مشخص نکرد که بعد از آن به کجا خواهد رفت.
خروج ونگ، جدیدترین مورد از سلسله جداییهای اخیر محققان ایمنی هوش مصنوعی، پژوهشگران و مدیران ارشد از OpenAI محسوب میشود. بسیاری از این افراد، خالق ChatGPT را به اولویتدهی منافع تجاری نسبت به ایمنی در توسعهی هوش مصنوعی متهم کردهاند.
ایلیا سوتسکور و جان لایک، محققان ارشد OpenAI در تیم Superalignment که با هدف توسعهی روشهایی برای کنترل سیستمهای هوش مصنوعی فوق هوشمند تشکیل شده بود نیز در سال جاری میلادی این شرکت را ترک کردند تا در جای دیگری به تحقیقات در زمینهی ایمنی هوش مصنوعی بپردازند.
ونگ در سال 2018 به OpenAI پیوست و در تیم رباتیک آن مشغول به کار شد. تیم رباتیک در نهایت موفق به ساخت یک دست رباتیک شد که توانایی حل مکعب روبیک را داشت. این دستاورد، بهگفتهی ونگ، دو سال زمان برد. OpenAI اعلام کرد که مدیران و محققان ایمنی در حال کار برای جایگزینی ونگ هستند.
http://www.PoliticalMarketing.ir/fa/News/760626/OpenAI-یکی-دیگر-از-پژوهشگران-ارشد-بخش-ایمنی-خود-را-از-دست-داد