رقابت در حوضه ی هوش مصنوعی با رهبری OpenAI خالق ChatGPT و سرمایه گذاری مایکروسافت مالک موتور جستجوی بینگ بسیار داغ شده است. گوگل نیز برای اینکه از این رقابت عقب نماد چت بات خود را با نام بارد معرفی کرد . همچنین با غولهای سیلیکون ولی و بزرگترین سرمایهگذاران حوزه ی فناوری تمایل بسیار زیادی دارند که در سیستم های هوش مصنوعی سرمایه گذاری کنند.
گری ان. اسمیت، استاد اقتصاد فلچر جونز در کالج پومونا، و جفری لی فانک، مشاور مستقل فناوری، می نویسند: «جادوی غیرقابل انکار مکالمات شبیه انسان که توسط GPT ایجاد می شود، بدون شک بسیاری از کسانی را که دروغ می پردازند غنی خواهد کرد. این روایت نشان میدهد که رایانهها اکنون باهوشتر از ما هستند و میتوان به آنها اعتماد کرد تا برای ما تصمیم بگیرند.” آنها در ادامه می گویند: «حباب هوش مصنوعی به سرعت در حال افزایش است.»
مقاله کارشناسان ریشه در این استدلال دارد که بسیاری از سرمایه گذاران به سادگی فناوری زیربنایی مدل های زبانی که به راحتی انسان سازی می شوند را اشتباه می گیرند. در حالی که رباتها، بهویژه ChatGPT و جستجوی بینگ مبتنی بر OpenAI، به طرز چشمگیری انسانی به نظر میرسند، اما در واقع اطلاعات را ترکیب نمیکنند، و بنابراین در ازای پاسخگویی، پاسخهای متفکرانه، تحلیلی یا معمولاً حتی درست را ارائه نمیکنند.
در عوض، مانند ویژگی متن پیشبینیکننده در گوشیهای هوشمند، آنها فقط پیشبینی میکنند که چه کلماتی ممکن است در یک جمله قرار گیرند. هر پاسخ سریع یک معادله احتمال است، در واقع این فناوری درکی از آنچه که بیان می کند ندارد. واقعیتی از ماشین آلات زیربنایی که منجر به پدیده توهم هوش مصنوعی می شود، یک شکست بسیار جدی در این فناوری که توسط آن پیچیده تر شده است. تمایل ماشینها برای اینکه قابل اطمینان به نظر برسند، گاهی تا حدی میرسد که حتی زمانی که پاسخهای نادرست ارائه میدهند، جنگنده میشوند و تهدید می کنند.
اسمیت و فانک توضیح میدهند: «آنها که بر روی مقادیر غیرقابل تصور متن آموزش دیدهاند، کلمات را بر اساس احتمالات آماری در جمله ها به هم میچسبانند. اما آنها به هیچ وجه “هوشمند” نیستند، آنها فقط ماشین حساب های خودکاری هستند که کلمات را بیرون می اندازند.” از سوی دیگر، بسیاری از خوشبینان هوش مصنوعی، طعنهها و اشتباهات گاه خندهدار و گاهی هولناک این فناوری در حال رشد را بهعنوان دردهای فزاینده نادیده گرفتهاند. آنها اغلب استدلال میکنند که دادههای بیشتر، که شامل دادههای رایگانی است که از طریق استفاده عمومی به ماشینها اعطا میشود، راهحلی برای مشکلات بررسی حقایق چتباتها خواهد بود.
همچنین این یک روایت وسوسه انگیز برای سرمایه گذاران هوش مصنوعی است که ترجیح می دهند خودرویی با لاستیک پنچر بخرند تا خودرویی که به سادگی نمی تواند طبق وعده عمل کند. اما به گفته اسمیت و فانک، داده های بیشتر در واقع می تواند مشکلات بسیار واضح برنامه ها را بدتر کند.
کارشناسان استدلال می کنند: “آموزش آن در پایگاه های داده بزرگتر مشکل ذاتی را حل نمی کند: LLM ها غیرقابل اعتماد هستند زیرا معنی کلمات را نمی دانند. دوره”. آنها می افزایند: “در واقع، آموزش در پایگاه های داده آینده که به طور فزاینده ای شامل BS منتشر شده توسط LLM ها می شود، آنها را حتی کمتر قابل اعتماد خواهد کرد.”
به عبارت دیگر: اگر همانطور که بسیاری دیگر از کارشناسان می ترسند محتوای ساخته شده توسط چت بات نادرست یا گمراه کننده یا مضر باشد در آینده ای نزدیک با حجم بسیاری از اطلاعاتی مواجه خواهیم شد که به سختی می توان آن ها را به اطلاعات صحیح و غلط دسته بندی کرد. در چنین شرایطی اطلاعات قابل اعتماد کمتر و بیشتر از همیشه خواهد بود و اینترنت به نوعی از خودش تقلید خواهد کرد.
مطمئناً این برداشت کارشناسان بدبینانه است و شاید درک افراد خوشبین به هوش مصنوعی درست باشد. صرف نظر از این، بسیاری از افراد قدرتمند در آنجا سرمایه های کلانی را برای LLM ها سرمایه گذاری کرده اند، بدون در نظر گرفتن رشته ای از فناوری های مولد هوش مصنوعی.
منبع futurism