وبلاگ

ابزار کلمات کلیدی خود را با پایتون و ChatGPT بسازید: راهنمای تجزیه و تحلیل Subreddit

در اینجا یاد می گیرید که چگونه از ChatGPT بخواهید تا بیشترین پرس و جوهای 1 کلمه ای، 2 کلمه ای و 3 کلمه ای را از فایل اکسل استخراج کند. این تجزیه و تحلیل یک نمای کلی از پرکاربردترین کلمات در ساب ردیت تحلیل شده ارائه می دهد و به کشف موضوعات رایج کمک می کند. نتیجه یک برگه اکسل با سه تب، یکی برای هر نوع پرس و جو خواهد بود.

ساختار اعلان: توضیح کتابخانه ها و منابع

در این اعلان، از ChatGPT می خواهیم که یک فایل اکسل را بخواند، داده های آن را دستکاری کند و نتایج را با استفاده از کتابخانه Pandas در یک فایل اکسل دیگر ذخیره کند. برای تحلیل جامع‌تر و دقیق‌تر، ستون‌های «عناوین سؤال» و «متن سؤال» را ترکیب کنید. این ادغام مجموعه داده های غنی تری را برای تجزیه و تحلیل فراهم می کند.

گام بعدی این است که تکه‌های بزرگ متن را به کلمات یا مجموعه‌ای از کلمات تقسیم کنید، فرآیندی که به عنوان نشانه‌سازی شناخته می‌شود. کتابخانه NLTK می تواند به طور موثر این موضوع را مدیریت کند.

به‌علاوه، برای اطمینان از اینکه توکن‌سازی فقط کلمات معنی‌دار را می‌گیرد و کلمات رایج یا نشانه‌گذاری را حذف می‌کند، این درخواست شامل دستورالعمل‌هایی برای استفاده از ابزارهای NLTK مانند RegexpTokenizer و کلمات توقف می‌شود.

  شرکت‌های ثبت شده در جزیره کیش( راهنمای جامع برای شروع یک کسب و کار)

برای بهبود فرآیند فیلتر ،، درخواست ما از ChatGPT می‌خواهد تا فهرستی از 50 کلمه توقف اضافی ایجاد کند، اصطلاحات محاوره‌ای یا عبارات رایجی را که ممکن است در بحث‌های subreddit رایج باشند، اما در کلمات توقف NLTK گنجانده نشده‌اند، فیلتر کند. علاوه بر این، اگر می خواهید کلمات خاصی را حذف کنید، می توانید به صورت دستی یک لیست ایجاد کنید و آن را در درخواست خود قرار دهید.

وقتی داده ها را پاک کردید، از کلاس Counter استفاده کنید ماژول مجموعه برای شناسایی رایج ترین کلمات یا عبارات. نتایج را در یک فایل اکسل جدید با نام “combined-queries.xlsx” ذخیره کنید. این فایل دارای سه برگه جداگانه است: «پرسش‌های یک کلمه‌ای»، «پرس‌وجوهای دو کلمه‌ای» و «پرس‌وجوهای سه کلمه‌ای» که هر کدام پرسش‌ها و تعداد دفعات ذکر آن‌ها را ارائه می‌دهند.

ساختار سریع استخراج، پردازش و تجزیه و تحلیل داده ها را تضمین می کند و از مناسب ترین کتابخانه های پایتون برای هر فاز استفاده می کند.

نمونه اعلان آزمایش شده برای استخراج داده با پیشنهاداتی برای بهبود

در زیر یک نمونه اعلان است که نکات ذکر شده در بالا را نشان می دهد. برای استفاده از این دستور، کافی است آن را کپی کرده و در ChatGPT پیست کنید. لازم به ذکر است که نیازی به رعایت دقیق این دستور ندارید. با خیال راحت آن را با توجه به نیازهای خاص خود تغییر دهید.

بیایید بیشترین تکرار 1 کلمه، 2 کلمه و 3 کلمه پرس و جو را از فایل اکسل به نام استخراج کنیم.{نام فایل}xlsx.’ از کتابخانه های پایتون مانند پانداها برای دستکاری داده ها استفاده کنید.

با خواندن فایل اکسل شروع کنید و ستون های “عناوین سوال” و “متن سوال” را ترکیب کنید. کتابخانه NLTK و منابع لازم آن مانند Punkt را برای توکن‌سازی نصب و استفاده کنید، مطمئن شوید که علائم نقطه‌گذاری و سایر کاراکترهای غیرالفبایی در طول این فرآیند فیلتر می‌شوند. متن ترکیبی را برای ایجاد پرس و جوهای یک کلمه ای، دو کلمه ای و سه کلمه ای توکن کنید.

قبل از تجزیه و تحلیل فرکانس، کلمات توقف رایج را با استفاده از کتابخانه NLTK فیلتر کنید. علاوه بر کلمات توقف NLTK، فهرستی از 50 افعال کمکی رایج، انقباضات و اصطلاحات محاوره ای را نیز شامل کنید. این لیست اضافی باید روی عباراتی مانند “I would”، “I should”، “I don” و غیره تمرکز کند و با کلمات توقف NLTK استفاده شود.

پس از پاک ، داده‌ها، از کلاس Counter ماژول مجموعه‌ها برای تعیین متداول‌ترین درخواست‌های یک کلمه‌ای، دو کلمه‌ای و سه کلمه‌ای استفاده کنید.

نتایج را در سه برگه جداگانه در یک فایل اکسل جدید به نام “combined-queries.xlsx” ذخیره کنید. برگه ها باید «پرسش های یک کلمه ای»، «پرسش های دو کلمه ای» و «پرسش های سه کلمه ای» نامیده شوند. هر برگه باید پرس و جوها را همراه با تعداد دفعاتی که در Reddit ذکر شده اند فهرست کند.

لیست 5 پرس و جو برتر و تعداد آنها را برای هر گروه در 3 جدول به من نشان دهید.”

تعداد کلمات کلیدی را برای خروجی سریعتر بهینه کنید

هنگام استخراج داده‌ها از بسیاری از سؤالات، درخواست کلمات کلیدی خروجی کمتری را برای سرعت بخشیدن به فرآیند در نظر بگیرید. به عنوان مثال، اگر داده‌ها را از 400 سؤال استخراج کرده‌اید، می‌توانید از ChatGPT بخواهید که تنها 3 کلیدواژه اصلی را به شما نشان دهد. اگر می خواهید کلمات کلیدی بیشتری را مشاهده کنید، به سادگی فایل را دانلود کنید. این رویکرد زمان پردازش ChatGPT را کاهش می دهد.

  پنج نکته ای که باید در مورد بهینه سازی محتوا در سال 2023 بدانید

ساده ، اعلان خروج مستقیم

اگر همچنان وقفه‌ها را تجربه می‌کنید اما نمی‌خواهید جریان کار را درک کنید، خط زیر را به انتهای درخواست خود اضافه کنید:نیازی به توضیح نیست؛ فقط نتیجه را ارائه دهید. این دستورالعمل ChatGPT را هدایت می کند تا بر ارائه نتیجه دلخواه تمرکز کند.

بینش سئوی داده محور با ChatGPT

اکنون دو مجموعه از داده ها را آماده کرده اید. اولی لیستی از سوالات و آدرس‌های اینترنتی، تعداد نظرات و رای‌های موافق آنهاست. در همین حال، دوم لیستی از پرس و جوهای یک کلمه ای، دو کلمه ای و سه کلمه ای است.

برای تجزیه و تحلیل یا تجسم این داده ها با ChatGPT، از افزونه Noteable استفاده کنید یا فایل های Excel را از برنامه Noteable دانلود کنید و آنها را در ابزار تجزیه و تحلیل داده ChatGPT آپلود کنید. برای این راهنما، از افزونه Noteable برای حفظ ثبات در یک چت استفاده کنید.

منبع: https://moz.com/blog/build-reddit-keyword-research-tool