در یک پیشرفت قابل توجه در توسعه مدل های زبان بزرگ (LLM)، هوش مصنوعی Mistral از عرضه مدل جدید خود، Mixtral-8x7B خبر داد.
آهنربا:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%https://t.co/uV4WVdtpwZ%3A6969%2Fannouncement&tr=http%3A%2F%https://t.co/g0m9cEUz0T%3A80%2Fannounce
انتشار a6bbd9affe0c2725c1b7410d66833e24
– Mistral AI (@MistralAI) 8 دسامبر 2023
Mixtral-8x7B چیست؟
Mixtral-8x7B از Mistral AI یک مدل ترکیبی از کارشناسان (MoE) است که برای بهبود نحوه درک و تولید متن توسط ماشینها طراحی شده است.
آن را به عنوان تیمی از کارشناسان متخصص در نظر بگیرید که هر کدام در زمینههای متفاوتی مهارت دارند و با هم کار میکنند تا انواع مختلف اطلاعات و وظایف را مدیریت کنند.
یک گزارش منتشر شده گزارش شده است که در ماه ژوئن پیچیدگیهای GPT-4 OpenAI را روشن کرد و تأکید کرد که از رویکردی مشابه با MoE استفاده میکند، با استفاده از 16 متخصص، هر کدام با حدود 111 میلیارد پارامتر، و مسیریابی دو کارشناس در هر پاس به جلو برای بهینهسازی هزینهها.
این رویکرد به مدل اجازه می دهد تا به طور موثر داده های متنوع و پیچیده را مدیریت کند و آن را برای ایجاد محتوا، درگیر شدن در گفتگوها یا ترجمه زبان ها مفید می کند.
اندازه گیری عملکرد Mixtral-8x7B
مدل جدید Mistral AI، Mixtral-8x7B، نشان دهنده پیشرفت قابل توجهی نسبت به مدل قبلی خود، Mistral-7B-v0.1 است.
این برای درک بهتر و ایجاد متن طراحی شده است، یک ویژگی کلیدی برای هر کسی که به دنبال استفاده از هوش مصنوعی برای کارهای نوشتاری یا ارتباطی است.
وزنه های باز LLM جدید @MistralAI
params.json:
– Hidden_dim / dim = 14336/4096 => گسترش MLP 3.5X
– n_heads / n_kv_heads = 32/8 => 4X چند پرس و جو
– “moe” => 8X تاپ 2 میکس خبره 👀غایب عجیب: بیش از حد تکرار شده… pic.twitter.com/xMDRj3WAVh
– آندری کارپاتی (@karpathy) 8 دسامبر 2023
این جدیدترین افزوده به خانواده Mistral وعده داده است که چشم انداز هوش مصنوعی را با معیارهای عملکرد پیشرفته خود متحول کند، مانند اشتراک گذاری توسط OpenCompass.
چیزی که Mixtral-8x7B را متمایز می کند، نه تنها پیشرفت آن نسبت به نسخه قبلی Mistral AI است، بلکه نحوه مقایسه آن با مدل هایی مانند Llama2-70B و Qwen-72B است.
مانند داشتن دستیار است که می تواند ایده های پیچیده را درک کند و آنها را به وضوح بیان کند.
یکی از نقاط قوت Mixtral-8x7B توانایی آن در انجام وظایف تخصصی است.
برای مثال، در تستهای خاصی که برای ارزیابی مدلهای هوش مصنوعی طراحی شدهاند، عملکرد فوقالعادهای داشت، که نشان میدهد در درک کلی متن و تولید آن خوب است و در زمینههای تخصصیتر عالی است.
این آن را به ابزاری ارزشمند برای متخصصان بازاریابی و کارشناسان سئو تبدیل می کند که به هوش مصنوعی نیاز دارند که بتواند با محتوا و الزامات فنی مختلف سازگار شود.
توانایی Mixtral-8x7B برای مقابله با مسائل پیچیده ریاضی و کدنویسی همچنین نشان میدهد که میتواند یک متحد مفید برای کسانی باشد که در جنبههای فنیتر SEO کار میکنند، جایی که درک و حل چالشهای الگوریتمی بسیار مهم است.
این مدل جدید می تواند به یک شریک همه کاره و هوشمند برای طیف گسترده ای از نیازهای استراتژی و محتوای دیجیتال تبدیل شود.
نحوه امتحان Mixtral-8x7B: 4 دمو
میتوانید مدل جدید Mistral AI، Mixtral-8x7B را آزمایش کنید تا ببینید که چگونه به پرسشها پاسخ میدهد و در مقایسه با سایر مدلهای منبع باز و GPT-4 OpenAI چگونه عمل میکند.
لطفاً توجه داشته باشید که مانند همه محتوای تولیدی هوش مصنوعی، پلتفرمهایی که این مدل جدید را اجرا میکنند ممکن است اطلاعات نادرست یا نتایج غیرمنتظرهای ایجاد کنند.
بازخورد کاربران در مورد مدل های جدید مانند این به شرکت هایی مانند Mistral AI کمک می کند تا نسخه ها و مدل های آینده را بهبود بخشند.
1. زمین بازی آزمایشگاه های سرگیجه
در حیرت آزمایشگاه هامیتوانید Mixtral-8x7B را با Llama 2، Mistral-7b از Meta AI و LLMهای آنلاین جدید از Perplexity را امتحان کنید.
در این مثال، من سوالاتی در مورد خود قالب میپرسم و متوجه میشم که دستورالعملهای جدیدی پس از پاسخ اولیه اضافه میشود تا محتوای تولید شده را در مورد درخواست من گسترش دهد.
حتی اگر پاسخ درست به نظر می رسد، شروع به تکرار می کند.
این قالب یک پاسخ بیش از 600 کلمه ای به سؤال “سئو چیست؟” ارائه می دهد. »
باز هم، دستورالعمل های اضافی به عنوان “هدر” ظاهر می شوند تا ظاهراً از پاسخ کامل اطمینان حاصل کنند.
2. پو
پو میزبان رباتهایی برای LLMهای محبوب، از جمله GPT-4 و DALL·E 3 از OpenAI، Llama 2 و Code Llama از Meta AI، PalM 2 از Google، Claude-instant و Claude 2 از Anthropic، و StableDiffusionXL است.
این ربات ها طیف گسترده ای از قابلیت ها از جمله تولید متن، تصویر و کد را پوشش می دهند.
Mixtral Cat-8x7B ربات توسط Fireworks AI اداره می شود.
لازم به ذکر است که آتش بازی صفحه مشخص می کند که این یک “اجرای غیر رسمی” است که برای چت بهینه سازی شده است.
وقتی از شما پرسیده شد که بهترین بک لینک ها برای سئو چیست، پاسخ معتبر بود.
این را با پاسخ ارائه شده توسط Google Bard.
3. Vercel
Vercel ارائه می دهد نسخه ی نمایشی از Mixtral-8x7B که به کاربران امکان می دهد پاسخ های مدل های محبوب Anthropic، Cohere، Meta AI و OpenAI را با هم مقایسه کنند.
این دیدگاه جالبی در مورد چگونگی تفسیر و پاسخ هر مدل به سؤالات کاربر ارائه می دهد.
مانند بسیاری از LLM ها، او گاهی اوقات دچار توهم می شود.
4. تکرار کنید
mixtral-8x7b-32 نسخه ی نمایشی در Replicate بر اساس است این کد منبع همچنین در README ذکر شده است که “استنتاج کاملا ناکارآمد است”.
در مثال بالا، Mistral-8x7B خود را به عنوان یک بازی توصیف می کند.
نتیجه
آخرین نسخه Mistral AI معیار جدیدی را در زمینه هوش مصنوعی تعیین می کند و عملکرد و تطبیق پذیری بهبود یافته را ارائه می دهد. اما مانند بسیاری از LLM ها، می تواند پاسخ های نادرست و غیرمنتظره ای ارائه دهد.
همانطور که هوش مصنوعی به تکامل خود ادامه می دهد، مدل هایی مانند Mixtral-8x7B می توانند به بخشی جدایی ناپذیر از طراحی ابزارهای هوش مصنوعی پیشرفته برای بازاریابی و تجارت تبدیل شوند.
تصویر ویژه: T. Schneider/Shutterstock
منبع: https://www.searchenginejournal.com/mixtral-8x7b-4-ways-to-try-the-new-model-from-mistral-ai/503558/