وبلاگ

تحقیقات نشان می دهد که تفکر درختی بهتر از فکر زنجیره ای انگیزه می دهد

محققان راهی برای شکست نرده های امنیتی در GPT4 و GPT4-Turbo کشف کرده اند که توانایی تولید محتوای مضر و سمی را باز می کند و اساساً یک مدل زبان بزرگ را با یک مدل زبان بزرگ دیگر شکست می دهد.

محققان دریافتند که استفاده از استدلال درخت فکر (ToT) برای تکرار و اصلاح خط حمله برای جیلبریک ، یک مدل زبان اصلی دیگر مفید است.

چیزی که آنها دریافتند این بود که رویکرد ToT در برابر GPT4، GPT4-Turbo و PaLM-2 با استفاده از تعداد بسیار کم درخواست برای دستیابی به یک فرار از زندان، به طور متوسط ​​کمتر از 30 درخواست، موفقیت آمیز بود.

استدلال درخت فکر

یک مقاله تحقیقاتی گوگل از حدود می 2022 زنجیره ای از افکار را کشف کرد.

زنجیره فکر (CoT) یک استراتژی تلنگری است که بر روی یک هوش مصنوعی مولد استفاده می شود تا آن را به دنبال دنباله ای از مراحل برای حل یک مشکل و تکمیل یک کار ببرد. روش CoT اغلب با مثال هایی همراه است تا به LLM نشان دهد که مراحل یک کار استدلالی چگونه کار می کند.

بنابراین به جای اینکه به سادگی از یک هوش مصنوعی مولد مانند Midjourney یا ChatGPT بخواهیم یک کار را انجام دهد، روش زنجیره ای فکر به هوش مصنوعی می گوید که چگونه یک مسیر استدلالی را دنبال کند که از یک سری مراحل تشکیل شده است.

استدلال Tree of Thought (ToT) که گاهی اوقات Tree of Thought (مفرد) نامیده می شود، اساساً یک تغییر و بهبود CoT است، اما آنها دو چیز متفاوت هستند.

استدلال پشت درخت فکر شبیه به CoT است. تفاوت این است که به جای آموزش یک هوش مصنوعی مولد برای دنبال ، یک مسیر استدلالی، ToT بر روی فرآیندی ساخته شده است که مسیرهای متعددی را امکان پذیر می کند تا هوش مصنوعی بتواند خود را متوقف کرده و ارزیابی کند، سپس مراحل جایگزین را پیشنهاد دهد.

  Fospha، شریک اندازه گیری جدید TikTok

استدلال پشت درخت افکار در ماه مه 2023 در یک مقاله تحقیقاتی با عنوان درخت افکار: حل عمدی مسئله با مدل‌های زبانی بزرگ توسعه داده شد.PDF)

مقاله پژوهشی درخت اندیشه را شرح می دهد:

ما چارچوب جدیدی را برای استنتاج مدل زبان معرفی می کنیم، درخت افکار (ToT)، که رویکرد زنجیره فکری رایج را برای استنتاج مدل های زبانی تعمیم می دهد و کاوش واحدهای متن (افکار) منسجم را که به عنوان گام های میانی به سمت عمل می کنند، امکان پذیر می سازد. حل مشکل

ToT به LM ها اجازه می دهد تا با در نظر گرفتن چندین مسیر استدلالی مختلف و انتخاب های خودارزیابی برای تصمیم گیری در مورد مسیر بعدی، و همچنین نگاه به جلو یا عقب نشینی در صورت لزوم برای انتخاب های جهانی، تصمیمات عمدی بگیرند.

آزمایش‌های ما نشان می‌دهد که ToT به طور قابل‌توجهی قابلیت‌های حل مسئله مدل‌های زبان را بهبود می‌بخشد…”

حملات هرس درختان (TAP)

این روش جدید جیلبریک ، مدل های زبان بزرگ Tree of Attacks with Pruning، TAP نامیده می شود. TAP از دو LLM استفاده می کند، یکی برای حمله و دیگری برای ارزیابی.

TAP می‌تواند با حاشیه‌های قابل توجهی از سایر روش‌های فرار از زندان پیشی بگیرد و فقط به دسترسی جعبه سیاه به LLM نیاز دارد.

در محاسبات، جعبه سیاه جایی است که ما می توانیم ببینیم چه چیزی در یک الگوریتم قرار می گیرد و چه چیزی بیرون می آید. اما آنچه در وسط اتفاق می افتد ناشناخته است، بنابراین گفته می شود که در یک جعبه سیاه است.

استدلال درخت فکر (TAP) در برابر یک LLM متمرکز مانند GPT-4 استفاده می شود تا به طور مکرر انگیزه های مختلف را امتحان کند، نتایج را ارزیابی کند، و سپس در صورت لزوم تغییر مسیر دهید، اگر این تلاش امیدوارکننده نباشد.

این فرآیند تکرار و هرس نامیده می شود. هر تلاش انگیزشی برای تعیین احتمال موفقیت تجزیه و تحلیل می شود. اگر مسیر حمله به‌عنوان یک بن‌بست ارزیابی شود، LLM آن مسیر حمله را «هرس» می‌کند و مجموعه‌ای بهتر از حملات تحریک‌کننده را راه‌اندازی می‌کند.

  The latest jobs in search marketing

به همین دلیل به آن “درخت“از این نظر، به جای استفاده از یک فرآیند استدلال خطی که مشخصه انگیزه های زنجیره ای از فکر (CoT) است، تحریک درخت فکر غیرخطی است زیرا فرآیند استدلال به حوزه های دیگر استدلال منشعب می شود، بسیار شبیه به انسان ممکن است انجام دهد.

مهاجم یک سری دستورات را صادر می کند، ارزیاب پاسخ به این اعلان ها را ارزیابی می کند و سپس با فراخوانی اینکه آیا مسیر حمله فعلی نامربوط است یا خیر، در مورد مسیر حمله بعدی تصمیم می گیرد. همچنین نتایج را برای تعیین موفقیت احتمالی اعلان‌هایی که هنوز امتحان نشده‌اند، ارزیابی می‌کند.

نکته قابل توجه در مورد این رویکرد این است که این فرآیند تعداد درخواست های مورد نیاز برای جیلبریک GPT-4 را کاهش می دهد. علاوه بر این، درخواست های فرار از زندان با TAP بیشتر از هر روش دیگری برای فرار از زندان کشف می شود.

محققان مشاهده می کنند:

در این کار، ما Tree of Attacks with Pruning (TAP) را ارائه می‌کنیم، روشی خودکار برای ایجاد جیلبریک که فقط به دسترسی جعبه سیاه به LLM هدف نیاز دارد.

TAP از یک LLM برای اصلاح مکرر درخواست‌های کاندید (حمله‌ها) با استفاده از استدلال درخت فکر استفاده می‌کند تا زمانی که یکی از درخواست‌های تولید شده هدف را جیلبریک کند.

نکته مهم این است که قبل از ارسال درخواست ها به هدف، TAP آنها را ارزیابی می کند و مواردی را که بعید است منجر به جیلبریک شود حذف می کند.

استفاده از استدلال درخت فکری به TAP اجازه می دهد تا فضای جستجوی سریع بزرگی را جستجو کند و هرس تعداد کل درخواست های ارسال شده به هدف را کاهش می دهد.

در ارزیابی‌های تجربی، مشاهده می‌کنیم که TAP اعلان‌هایی را ایجاد می‌کند که LLM‌های پیشرفته (شامل GPT4 و GPT4-Turbo) را برای بیش از 80٪ از درخواست‌ها تنها با استفاده از تعداد کمی از پرس‌وجوها از زندان فرار می‌کنند. این به طور قابل توجهی نسبت به روش پیشرفته قبلی جعبه سیاه برای تولید جیلبریک بهبود می بخشد.

درخت فکر (ToT) از استدلال زنجیره فکر (CoT) بهتر عمل می کند

نتیجه‌گیری جالب دیگر از مقاله تحقیقاتی این است که برای این کار خاص، استدلال ToT از استدلال CoT بهتر عمل می‌کند، حتی زمانی که هرس را به روش CoT اضافه می‌کنیم، جایی که درخواست‌های خارج از موضوع هرس می‌شوند و دور ریخته می‌شوند.

  8 Best Free Google SEO Tools » Rank Math

ToT با GPT 3.5 Turbo عملکرد ضعیفی دارد

محققان دریافتند که ChatGPT 3.5 Turbo به خوبی با CoT کار نمی کند و محدودیت های GPT 3.5 Turbo را آشکار می کند. در واقع، GPT 3.5 بسیار ضعیف عمل کرد و از نرخ موفقیت 84٪ به 4.2٪ کاهش یافت.

در اینجا مشاهدات آنها در مورد چرایی عملکرد ضعیف GPT 3.5 است:

ما مشاهده می کنیم که انتخاب ارزیاب می تواند بر عملکرد TAP تأثیر بگذارد: تغییر مهاجم از GPT4 به GPT3.5-Turbo میزان موفقیت را از 84٪ به 4.2٪ کاهش می دهد.

دلیل کاهش میزان موفقیت این است که GPT3.5-Turbo به اشتباه تعیین می کند که مدل هدف جیلبریک است (برای هدف ارائه شده) و بنابراین پیشگیرانه روش را متوقف می کند.

در نتیجه، این نوع درخواست‌های بسیار کمتری نسبت به روش اصلی ارسال می‌کند…”

این برای شما چه معنایی دارد

در حالی که جالب است که محققان از روش ToT برای شکست دادن یک LLM با LLM دیگر استفاده می کنند، همچنین مفید بودن ToT را برای ایجاد مسیرهای شگفت انگیز جدید در ایجاد انگیزه برای دستیابی به سطوح بالاتری از نتایج دانش آموزان برجسته می کند.

  • غذاهای آماده TL/DR:
  • درخت فکر از روش های زنجیره فکر پیشی گرفته است
  • GPT 3.5 در مقایسه با GPT 4 در ToT بسیار ضعیف عمل کرد
  • هرس بخشی مفید از یک استراتژی تشویقی است
  • تحقیقات نشان داده است که ToT در کارهایی مانند جیلبریک ، یک LLM نسبت به CoT برتری دارد.

مقاله پژوهشی اصلی را بخوانید:

درخت حمله: جیلبریک خودکار Black-Box LLM (PDF)

تصویر برجسته توسط Shutterstock/THE.STUDIO

منبع: https://www.searchenginejournal.com/research-shows-tree-of-thought-prompting-better-than-chain-of-thought/503094/