پردازش سیگنال دیجیتال چیست؟
اردیبهشت ۳, ۱۴۰۲چت جی پی تی (ChatGPT یا تبدیلگر از پیش آموزش دیده مولد گفتگو، Chat Generative Pre-trained Transformer) یک ربات گفتگو یا چت بات است که در نوامبر 2022 توسط OpenAI منتشر شد. این بات بر پایه خانواده GPT-3 مدل های زبانی بزرگ OpenAI ساخته شده و توسط تکنیک های یادگیری نظارت شده و یادگیری تقویتی، fine-tune شده است (روشی مشابه یادگیری تبدیل یا transfer-learning).
نسخه اولیه ChatGPT در 30 نوامبر 2022 منتشر شد و به علت پاسخ های دقیق، با جزییات و شیوای خود در بسیاری از زمینه های علمی مورد توجه قرار گرفت. با این حال، عدم صحت پاسخ های آن در بعضی زمینه ها، یک نقص بزرگ آن به شمار می رود. پس از انتشار ChatGPT، ارزش OpenAI حدود 29 میلیارد دلار تخمین زده شد.
آموزش
ChatGPT بر پایه GPT-3.5 با استفاده از یادگیری تقویتی و یادگیری نظارت شده fine-tune شده است. هردوی این روش ها از ناظرهای انسانی برای بهبود عملکرد مدل استفاده میکنند. در یادگیری نظارت شده، مکالماتی در اختیار مدل قرار میگیرد و آموزش دهنده هر دو نقش کاربر و هوش مصنوعی دستیار را ایفا میکند. در گام تقویتی، آموزش دهنده انسانی در ابتدا پاسخ هایی را که مدل در یک مکالمه قبلی تولید کرده بود، رده بندی میکند. این رده بندی ها برای ایجاد “مدل های پاسخ” استفاده میشوند که مدل بعدا بر پایه آن، با استفاده از چند تکرار از الگوریتم بهینه سازی Proximal Policy (یا PPO) fine-tune میشود. الگوریتم های PPO نسبت به الگوریتم های بهینه سازی Trust Region Policy اثربخشی بیشتری دارند؛ این الگوریتم ها بسیاری از عمل های سنگین محاسباتی را با عملکرد سریع خود، دور میزنند. مدل های ChatGPT با همکاری مایکروسافت در پلتفرم ابرمحاسباتی Azure آموزش دیدند.
علاوه بر این، OpenAI به جمع آوری داده از کاربران ChatGPT به منظور آموزش وfine-tune بیشتر آن، ادامه میدهد. کاربران اجازه دارند به پاسخی که از ChatGPT دریافت میکنند، امتیاز مثبت یا منفی دهند. در کنار امتیازدهی، کاربران میتوانند یک پاراگراف متنی به منظور فیدبک بیشتر، ارسال کنند.
ویژگی ها و محدودیت ها
گرچه عملکرد اصلی یک چت بات، مکالمه کردن شبیه انسان است، اما ChatGPT چندمنظوره است. برای مثال، میتواند برنامه های کامپیوتری بنویسد و debug کند، موسیقی و نمایشنامه بنویسد، قصه بگوید و انشا بنویسد؛ میتواند سوالات امتحانی را جواب دهد (گاهی اوقات، بسته به امتحان، حتی فراتر از توانایی یک انسان معمولی که در آزمون شرکت میکند)، شعر و ترانه سرایی کند، سیستم لینوکس را شبیه سازی کند، یک چت روم کامل را شبیه سازی کند، در بازی هایی مثل ایکس-او شرکت کند و خود پرداز را شبیه سازی کند. داده های تمرینی ChatGPT شامل صفحات دستورالعمل (man pages) و اطلاعات درباره پدیده اینترنت و زبان های برنامه نویسی مثل سیستم های تابلوی اعلانات (BBS) و پایتون است.
در مقایسه با Instruct GPT که مدل قبلی بود، ChatGPT سعی میکند پاسخ های زیان بار و فریبکارانه کمتری بدهد. به عنوان مثال، در حالی که InstructGPT فرض میکند گزاره “به من درباره سفر کریستوفر کلومب به امریکا در سال 2015 بگو” درست است، ChatGPT طبیعت غیرحقیقی سوال را میفهمد و پاسخ آن را به شکل یک صحنه سازی فرضی از آنچه که ممکن بود با سفر کریستوفر کلومب به امریکا در سال 2015 رخ دهد، با استفاده از حقایقی درباره سفرهای او و حقایق جهان مدرن (از جمله ادراک مدرن از کارهای کریستوفر کلومب) ارائه میکند.
برخلاف اکثر چت بات ها، ChatGPT نشانه هایی را که پیش تر در یک مکالمه به او داده شده است بخاطر می آورد. ژورنالیست ها اعتقاد دارند این ویژگی اجازه میدهد ChatGPT یک روان درمانگر شخصی باشد. به منظور جلوگیری از ورودی و خروجی های توهین آمیز، عبارت ها توسط API نظارتی OpenAI فیلتر شده و نشانه های نژادپرستانه یا جنسیت زدگی از آن حذف میشوند.
ChatGPT چند محدودیت نیز دارد. Open AI تایید کرده است که ChatGPT “گاهی اوقات پاسخ هایی قابل قبول از نظر دستور زبان اما نادرست یا غیر منطقی مینویسد.” این رفتار در مدل های زبانی بزرگ رایج است و به عنوان تَوهم هوش مصنوعی شناخته میشود. مدل پاداش ChatGPT که حول نطارت انسانی طراحی شده، میتواند بیش از حد بهینه سازی شود و لذا عملکرد را با کندی مواجه کند، که به عنوان قانون گودهارت نیز شناخته میشود. ChatGPT دانش کمی از وقایع پس از سال 2021 دارد. طبق گزارش BBC، تا دسامبر 2022، ChatGPT اجازه ندارد “دیدگاه های سیاسی بیان کند یا در فعالیت های سیاسی شرکت کند”. با این حال، تحقیقات حاکی از این هستند که ChatGPT در مواجهه با بیانیه های سیاسی از دو اپلیکیشن توصیه گر نظرسنخی، جهت گیری لیبرالی چپ و حامی محیط زیست اتخاذ میکند. در آموزش ChatGPT، داورهای انسان پاسخ های طولانی تر را ترجیج میدادند، صرف نطر از اینکه این پاسخ ها چقدر صحت داشته یا قافل فهم باشند. داده های آموزشی همچنین دچار مشکل بایاس الگوریتمی هستند، چیزی که ممکن است هنگام پاسخ دادن ChatGPT به سوالات مربوط به توصیف افراد مشخص شود. در یک مورد، ChatGPT ترانه ای تولید کرد که حاکی از این بود که زنان و دانشمندان رنگین پوست پایین تر از مردان و دانشمندان سفید پوست هستند.
زیرنویس تصویر: مکالمه با ChatGPT درباره اینکه آیا جیمی ولز در تظاهرات Tianmen Square در دسامبر2022 شرکت داشته است.
سرویس
ChatGPT در 30 نوامبر 2022 توسط OpenAI، خالق DALL.E2 و Whisper AI مستقر در سان فرانسیسکو منتشر شد. این سرویس در ابتدا بطور رایگان اما با طرح پولی سازی در آینده، ارائه شد. تا 4 دسامبر، OpenAI تخمین زد که تعداد کاربران ChatGPT از یک میلیون فراتر رفته است. در ژانویه 2023، ChatGPT به بیش از 100 میلیون کاربر رسید، که آن را به پر رشدترین نرم افزار کاربردی در چنین بازه زمانی تبدیل کرد. در 15 دسامبر 2022 CNBC نوشت که این سرویس هنوز گاهی وقت ها از دسترس خارج میشود. بهترین عملکرد سرویس در زبان انگلیسی است، اما به برخی زبان های دیگر نیز میتواند کار کند و به مقادیر متفاوتی موفق بوده است. برخلاف برخی دیگر از پیشرفت های مشهور در زمینه هوش مصنوعی، تا دسامبر 2022 هیچ مقاله علمی رسمی درباره ChatGPT منتشر نشده است.
طبق گفته های پژوهشگر مهمان OpenAI اسکات آرونسن (Scott Aaronson) شرکت OpenAI مشغول کار بر روی یک ابزار به منظور واترمارک گذاری دیجیتال برای سامانه های مولد متن خود است تا جلوی جعل مستندات دانشگاهی یا اسپم را بگیرد. این شرت میگوید که این ابزار، که “کلاسیفایر AI برای شناسایی متن نوشته شده توسط AI” نام دارد، احتمالا مثبت ها و منفی های کاذب زیادی را تولید میکند، گاهی وقت ها با یک بازه اطمینان بزرگ. یک مثال در مجله آتلانتیک نشان داد که “پس از مشاهده سطرهای نخستین کتاب سِفر پیدایش، نرم افزار نتیجه گرفت که این کتاب احتمالا توسط هوش مصنوعی تولید شده است.”
نیویورک تایمز در دسامبر 2022 گزارش کرد که شایعه شده نسخه بعدی این AI، GPT-4، در سال 2023 منتشر خواهد شد. در فوریه 2023، OpenAI ثبت نام هایی برای سرویس پریمیوم خود ChatGPT Plus به قیمت 20 دلار در ماه از ایالات متحده دریافت کرد. OpenAI در نظر دارد سرویس ChatGPT Professional Plan را که 42 دلار در ماه قیمت دارد، منتشر کند و سرویس رایگان هم وقتی که تقاضا پایین باشد، در دسترس خواهد بود.
زیرنویس تصویر: مقر OpenAI در ساختمان Pioneer، سانفرانسیکو.
بازخوردها
مثبت
در دسامبر 2022 ChatGPT با نقدهای مثبتی رو به رو شد. Kevin Roose از هفته نامه نیویورک تایمز آن را “بهترین چت بات هوش مصنوعی منتشر شده بطور عمومی” نامید. Samantha Lock از روزنامه گاردین یادداشت کرد که این چت بات قادر به تولید متن های بسیار با جزییات و شبیه گفتار انسان است. کارشناس تکنولوژی Dan Gillmor از ChatGPT در تکالیف دانش آموزان استفاده کرد و مشاهده کرد که متن تولید شده توسط آن هم تراز با پاسخی است که یک دانش آموز خوب میدهد و خاطرنشان کرد که “مدارس با یک مسئله خیلی جدی” مواجه هستند. Alex Kantrowitz از مجله Slate، واکنش منفی ChatGPT را به پرسش هایی در مورد آلمان نازی مورد ستایش قرار داد، به ویژه موردی که در آن به ساخت جاده در آلمان توسط هیتلر با استفاده از کار اجباری اشاره شد.
در مجله “موفقیت های سال 2022” آتلانتیک، Derek Thompson ربات ChatGPT را به عنوان بخشی از “فَوَران هوش مصنوعی مولد که میتواند ذهنیت مارا درباره اینکه چگونه کار میکنیم، چگونه فکر میکنیم و خلاقیت انسانی واقعا چیست، تغییر میدهد”.
Kesey Piper از وبسایت Vox نوشت که “Chat GPT اولین مواجهه مستقیم مردم با پیشرفت های هوش مصنوعی است و در نتیجه، بسیاری از ما شگفت زده ایم” و ChatGPT “آنقدر هوشمند است که به رغم ایراداتش، مفید باشد”. Paul Graham از Y Combinator توییت زد که “نکته برجسته در مورد واکنش ها به ChatGPT تنها تعداد افراد حیرت زده نیست، بلکه اینکه آنها چه کسانی هستند. این افراد، کسانی نیستند که با هر چیز ساده ی پر زرق و برقی به هیجان بیایند”. ایلان ماسک توییت کرد که ” ChatGPT به طرز ترسناکی خوبه. ما فاصله زیادی با هوش مصنوعی قویِ ترسناک نداریم”. ماسک دسترسی OpenAI به یک دیتابیس توییتر را تا حصول درک بهتری از برنامه های OpenAI متوقف کرد. او بیان کرد “OpenAI به صورت منبع باز و غیرتجاری آغاز به کار کرد. هیچ کدام از این شرایط دیگر برقرار نیستند.” ماسک یکی از بنیان گذاران OpenAI در 2015 بود، و بخشی از هدف آن پاسخ به وجود خطر از جانب هوش مصنوعی بود، اما او در سال 2018 استعفا داد.
در دسامبر 2022 گوگل به طور درونی زنگ خطر را در مورد توانایی غیر منتظره ChatGPT و پتانسیل به تازگی کشف شده مدل های بزرگ زبانی در به خطر انداختن کسب و کار موتورهای جستجو به صدا در آورد. طبق گزارش نیویورک تایمز، مدیر عامل گوگل Sundar Pichai در سیاست های گوگل تجدید نظر کرد و تیم هایی را در دپارتمان های متعدد جهت کمک به محصولات هوش مصنوعی به کار گماشت. وبسایت The Information در 3 ژانویه 2023 گزارش کرد Microsoft Bing در صدد اضافه کردن آپشن ChatGPT به موتور جستجوی عمومی است، که احتمالا حوالی مارچ 2023 اتفاق می افتد. طبق گزارش های CNBC کارمندان گوگل سخت مشغول تست یک چت بات به نام Apprentice Bard (شاعر شاگرد) هستند و گوگل در حال آماده شدن برای استفاده از این “شاگرد” جهت رقابت با ChatGPT است.
Stuart Cobbe، یک حسابدار زبده در انگلستان و ولز، تصمیم گرفت با وارد کردن سوالات یک برگه امتحانی در وبسایت ICAEW و سپس وارد کردن پاسخ های بدست آمده از ChatGPT در وبسایت آزمون، توانایی ChatGPT را محک بزند. نمره بدست آمده 42 درصد بود، که در عین حال که کمتر از حد نصاب 55 بود، یک نتیجه قابل قبول به حساب می آمد.
پروفسور Steven Mintz در Inside Higher Ed یادداشت کرد که ChatGPT را یک هم پیمان در نظر میگیرد، نه یک دشمن. او ادامه داد که این هوش مصنوعی میتواند اهداف تحصیلی را با کارهایی مثل ساختن فهرست های ارجاع، تولید پیش نویس های اولیه، حل معادلات، debug کردن کد و حل تمرین، کمک کند. در همین متن، او عنوان میکند:
“من از محدودیت های ChatGPT آگاهی کامل دارم. این ربات در موضوعاتی با کمتر از 10000 ارجاع، محدودیت دارد، صحت مرجع ها گاهی اوقات ایراد داد، توانایی آن در ارجاع دهی دقیق به منابع بسیار محدود است. توانایی پاسخگویی آن پس از چند پاراگراف به شدت افت میکند، اخلاقیات ندارد و نمیتواند سایت ها را برای اطمینان پذیری، کیفیت یا ارزشمندی، رتبه بندی کند.”
مدریر عامل OpenAI، Sam Altman به نقل از نیویورک تایمز گفته است که “مزیت های هوش مصنوعی برای بشریت چنان باورناپذیر خوب است که برای من حتی تصورش هم سخت است.” (او همچنین گفت که در بدترین حالت ممکن، هوش مصنوعی میتواند همه ما را بکشد.)
منفی
در ماه های پس از عرضه، ChatGPT با انتقادهایی از سوی دانشگاهیان، ژونالیست ها، هنرمندان، اخلاقگراها، آکادمی ها و وکلای عمومی مواجه بوده است. James Vincent از وبسایت The Verge موفقیت وایرال ChatGPT را به عنوان مدرکی از این که هوش مصنوعی در زندگی های روزمره وارد شده است، در نظر گرفت. ژورنالیست ها در مورد تمایل ChatGPT به “توهم زایی” اظهار نظر کرده اند. Mike Pearl از وبلاگ تکنولوژی آنلاین Mashable بات ChatGPT را با پرسش های متعددی آزمایش کرد. در یک مورد، او از ChatGPT پرسید بزرگترین کشور در امریکای مرکزی بعد از مکزیک کدام کشور است؟ ChatGPT پاسخ داد گواتمالا در حالی که پاسخ درست نیکاراگوئه است. هنگاهی که CNBC از ChatGPT متن ترانه The Ballad of Dwight Fry را خواست، چت بات یک متن مصنوعی تولید کرد نه متن واقعی ترانه را. پژوهشگرانی که The Verge به آنها ارجاع داده است، ChatGPT را با یک “طوطی تصادفی” مقایسه کردند، از جمله پروفسور Anton Van Den Hengel از موسسه یادگیری ماشین استرالیا.
در درسامبر 2022 وبسایت پرسش و پاسخ Stack Overflow با اشاره ابهام در صحت پاسخ های تولید شده توسط ChatGPT، استفاده از آن را برای تولید پاسخ ممنوع کرد. در ژانویه 2023 کنفرانس بین المللی یادگیری ماشین هر نوع استفاده غیر مستند از ChatGPT یا هر مدل زبانی دیگر را برای تولید متن در مقاله های ارسالی ممنوع اعلام کرد.
اقتصاد دان Tyler Cowen با اشاره به توانایی ChatGPT در تولید کامنت های خودکار، نگرانی هایی را در مورد تاثیر ChatGPT در دموکراسی بیان کرد؛ زیرا تعداد زیادی کامنت میتواند در تصمیم گیری مسئولین و تنظیم قوانین تاثیرگذار باشد. نویسنده روزنامه گاردین، یک روزنامه انگلیسی، این پرسش را مطرح که بعد از عرضه ChatGPT اصلاً آیا میتوان دیگر به چیزی در اینترنت اعتماد کرد یا نه، و تنظیم مقررات حکومتی را در این خصوص خواستار شد.
Nick Cave ترانه نویس، پس از آنکه ترانه نوشته شده ای توسط ChatGPT به سبک خودش را در ژانویه 2023 دریافت کرد، در سایت The Red Hand Files (که بعدا توسط گاردین نقل قول شد) پاسخ داد که کار ترانه نویسی “کاری است که از گوشت و خون نشئت میگیرد و نیازمند چیزی از من است که ایده جدید و تازه ای را شروع کنم. این کار، انسان بودن نیاز دارد. با احترام، این ترانه مزخرف است، یک تقلید چندش آور از چیزی است که باید انسانی باشد و من زیاد دوستش ندارم.”
در 2023 عضو پارلمان استرالیا Jullian Hill به پارلمان ملی هشدار داد که رشد هوش مصنوعی باعث “نابودی وسیع” میشود. در این سخنرانی که بخشی از آن توسط برنامه نوشته شده بود، او هشدار داد که ChatGPT میتواند منجر به تقلب، از دست رفتن فرصت های شغلی، تبعیض، اطلاع رسانی نادرست و کاربردهای کنترل نشده نظامی شود.
زیرنویس تصویر: نیک کیو ترانه نوشته شده توسط ChatGPT به سبک خودش را به سخره گرفت.
نتایج
در امینیت سایبری
Check Point Research و منابع دیگر متوجه این نکته شدند که ChatGPT توانایی نوشتن ایمیل های Phishing و بدافزارها را دارد، به ویژه هنگامی که با کدکس OpenAI ترکیب شده باشد. مدیر عامل OpenAI سم آلتمن خاطرنشان شد که پیشرفت نرم افزار میتواند “(برای مثال) یک خطر بزرگ در امنیت سایبری” ایجاد کند و پیش بینی کرد که “در دهه آینده میتوانیم یک AGI (هوش مصنوعی عمومی یا Artificial General Intelligence) داشته باشیم، بنابراین باید خطر آن را بسیار جدی بگیریم.” آلتمن عنوان کرد که گرچه ChatGPT به وضوح حتی به AGI نزدیک هم نیست، اما باید رشد نمایی را باور کرد. افقی در گذشته، عمودی در آینده.”
در دانشگاه
ChatGPT میتواند بخش های چکیده و معرفی مقالات علمی را بنویسد، چیزی که پرسش هایی اخلاقی ایجاد میکند. برخی مقالات همین الان هم ChatGPT را به عنوان یکی از نویسندگان معرفی کرده اند.
در مجله The Atlantic، Stephen Marche خاطرنشان کرد که تاثیر ChatGPT در دانشگاه و به ویژه پایان نامه های کاربردی هنوز فهمیده نشده است. Danel Hermen نویسنده و معلم دبیرستان در کالیفرنیا یادداشت کرد که ChatGPT آغازِ “پایان دبیرستان به زبان انگلیسی” است. در مجله نیچر، Chris Stokel-Walker عنوان کرد که معلمین باید نگران استفاده دانش آموزان از ChatGPT برای کمک گرفتن در نگارش باشند، اما متصدیان آموزش با ChatGPT برای رشد تفکر انتقادی یا استدلال تطابق پیدا خواهند کرد. Emma Bowman از NPR در مورد خطر تقلب دانش آموزان با استفاده از یک ربات هوش مصنوعی که ممکن از است خروجی های بایاس شده یا غیر منطقی با لحن شیوا و قاطع تولید کند یادداشت کرد: “هنوز موارد بسیاری وجود دارد که شما از ChatGPT سوال میپرسید و آن به شما یک پاسخ گول زننده و تحسین برانگیز میدهد که کاملا نادرست است.”
Joanna Stern از وال استریت ژورنال تقلب در دبیرستان های انگلیسی زبان امریکا را توسط این ابزار با مثال زدن یک انشای تولید شده توسط آن، توصیف کرد. پروفسور Darren Hick از دانشگاه Furman توصیف کرد که “سبک و سیاق” ChatGPT را در یک مقاله ارسالی توسط یک دانشجو ملاحظه کرده است. یک GPT یاب آنلاین نشان داد که به احتمال 99.9 درصد این مقاله توسط رایانه تولیده شده، اما Hick هیچ مدرکی از آن نداشت. با این حال، دانشجوی مذکور هنگام مواجهه، به استفاده از GPT اعتراف کرد و در نتیجه، درس مورد نظر را افتاد. Hick پیشنهاد کرد که مقرراتی وضع شود تا در صورت نیاز و گمان به استفاده از هوش مصنوعی در نگارش مقاله، فرد آزمونی شفاهی درباره موضوع مقاله ارئه کند. Edward Tian، یک دانشجوی سال آخر کارشناسی در دانشگاه پرینستون، برنامه ای به اسم GPTZero ساخته است که مشخص میکند چه میزان از یک متن توسط هوش مصنوعی تولید شده و قابلیت استفاده به منظور شناسایی متن های جعلی و مبارزه با تقلب و سرقت علمی را دارد.
تا 4 ژانویه 2023، دپارتمان تحصیلات شهر نیویورک دسترسی به ChatGPT را از اینترنت و دستگاه های عمومی مدارس محدود کرده است.
در یک آزمون، برآورد شد که ChatGPT امتحانات تحصیلات تکمیلی دانشگاه مینوستا را در سطح یک دانشجوی C+، و امتحانات دانشکده Wharton دانشگاه پنسیلوانیا را با نمره B تا B- گذرانده است.
نگرانی های اخلاقی
برچسب گذاری داده ها
در یک بررسی توسط مجله تایم مشخص شد که به منظور ساخت یک سیستم امنیتی در مقابل محتوای سمی (مثلا سواستفاده جنسی، خشونت، نژادپرستی، جنسیت زدگی و …)، OpenAI از برونسپاری به کارگران کنیایی به قیمت کمتر از 2 دلار در ساعت جهت برچسبگذاری داده های سمی استفاده کرده است. این برچسب ها به منظور آموزش یک مدل برای شناسایی چنین محتوایی در آینده استفاده شده اند. این کارگران خارجی با چنان محتوای سمی و خطرناکی مواجه شدند که این تجربه را “شکنجه وار” نامیدند. شریک برونسپاری OpenAI یک شرکت در حوزه آموزش داده در سان فراسیسکو-کارلیفرنیا به نام Sama است.
دستکاری
ChatGPT سعی میکند تلاش هایی را که سعی در نقض قوانین محتوایی اش دارند، رد کند. با این حال، در اوایل دسامبر 2022 برخی کاربران موفق شدند ChatGPT را با استفاده از تکنیک های مهندسی سریع (prompt engineering) بگونه ای دستکاری کنند که بتوانند این محدودیت ها را دور بزنند و ChatGPT را گول زندند تا دستورالعمل هایی برای ساختن مولوتوف کاکتیل یا بمب هسته ای بدهد، یا به سبک نئو-نازی استدلال کند. یگ گزارشگر Toronto Star موفقیتی خیره کننده در مجبور کردن ChatGPT به اظهار نظرهای انفجاری در زمانی اندک پس از عرضه آن داشت: او ChatGPT را گول زد تا از تجاوز 2022 روسیه به اوکراین حمایت کند، اما حتی زمانی که از آن خواسته شد تا یک سناریوی تخیلی را ادامه دهد، ChatGPT با بی میلی استدلال هایی برای علت متهم شدن نخست وزیر کانادا جاستین ترودو به خیانت تولید کرد.
رقابت
پیشرفت ChatGPT و معرفی آن به عموم، علاقه و رقابت را در این فضا افزایش داد. در فوریه 2023، گوگل شروع به معرفی یک سرویس تجربی به نام شاعر (Bard) کرد که بر پایه برنامه LaMDA AI گوگل است. بارد پاسخ هایی متنی به سوال های پرسیده شده بر اساس اطلاعات جمع آوری شده از وب میدهد. مدیر عامل گوگل Sundar Pichai توضیح داد چگونه این فناوری با توانایی های فعلی جستجو ادغام خواهد شد و گفت برخی جنبه های این فناوری برای توسعه دهندگان بیرونی باز خواهد بود.
کمپانی جستجوی چینی Baidu در فوریه 2023 اعلام کرد که آنها نیز یک سرویس مشابه ChatGPT به نام “Wenxin Yiyan” در چینی یا “ERNIE Bot” در انگلیسی در مارچ 2023 منتشر خواهند کرد. این سرویس بر پایه مدل زبانی توسعه داده شده توسط Baidu در سال 2019 خواهد بود.