در اینجا یاد می گیرید که چگونه از ChatGPT بخواهید تا بیشترین پرس و جوهای 1 کلمه ای، 2 کلمه ای و 3 کلمه ای را از فایل اکسل استخراج کند. این تجزیه و تحلیل یک نمای کلی از پرکاربردترین کلمات در ساب ردیت تحلیل شده ارائه می دهد و به کشف موضوعات رایج کمک می کند. نتیجه یک برگه اکسل با سه تب، یکی برای هر نوع پرس و جو خواهد بود.
ساختار اعلان: توضیح کتابخانه ها و منابع
در این اعلان، از ChatGPT می خواهیم که یک فایل اکسل را بخواند، داده های آن را دستکاری کند و نتایج را با استفاده از کتابخانه Pandas در یک فایل اکسل دیگر ذخیره کند. برای تحلیل جامعتر و دقیقتر، ستونهای «عناوین سؤال» و «متن سؤال» را ترکیب کنید. این ادغام مجموعه داده های غنی تری را برای تجزیه و تحلیل فراهم می کند.
گام بعدی این است که تکههای بزرگ متن را به کلمات یا مجموعهای از کلمات تقسیم کنید، فرآیندی که به عنوان نشانهسازی شناخته میشود. کتابخانه NLTK می تواند به طور موثر این موضوع را مدیریت کند.
بهعلاوه، برای اطمینان از اینکه توکنسازی فقط کلمات معنیدار را میگیرد و کلمات رایج یا نشانهگذاری را حذف میکند، این درخواست شامل دستورالعملهایی برای استفاده از ابزارهای NLTK مانند RegexpTokenizer و کلمات توقف میشود.
برای بهبود فرآیند فیلتر ،، درخواست ما از ChatGPT میخواهد تا فهرستی از 50 کلمه توقف اضافی ایجاد کند، اصطلاحات محاورهای یا عبارات رایجی را که ممکن است در بحثهای subreddit رایج باشند، اما در کلمات توقف NLTK گنجانده نشدهاند، فیلتر کند. علاوه بر این، اگر می خواهید کلمات خاصی را حذف کنید، می توانید به صورت دستی یک لیست ایجاد کنید و آن را در درخواست خود قرار دهید.
وقتی داده ها را پاک کردید، از کلاس Counter استفاده کنید ماژول مجموعه برای شناسایی رایج ترین کلمات یا عبارات. نتایج را در یک فایل اکسل جدید با نام “combined-queries.xlsx” ذخیره کنید. این فایل دارای سه برگه جداگانه است: «پرسشهای یک کلمهای»، «پرسوجوهای دو کلمهای» و «پرسوجوهای سه کلمهای» که هر کدام پرسشها و تعداد دفعات ذکر آنها را ارائه میدهند.
ساختار سریع استخراج، پردازش و تجزیه و تحلیل داده ها را تضمین می کند و از مناسب ترین کتابخانه های پایتون برای هر فاز استفاده می کند.
نمونه اعلان آزمایش شده برای استخراج داده با پیشنهاداتی برای بهبود
در زیر یک نمونه اعلان است که نکات ذکر شده در بالا را نشان می دهد. برای استفاده از این دستور، کافی است آن را کپی کرده و در ChatGPT پیست کنید. لازم به ذکر است که نیازی به رعایت دقیق این دستور ندارید. با خیال راحت آن را با توجه به نیازهای خاص خود تغییر دهید.
بیایید بیشترین تکرار 1 کلمه، 2 کلمه و 3 کلمه پرس و جو را از فایل اکسل به نام استخراج کنیم.{نام فایل}xlsx.’ از کتابخانه های پایتون مانند پانداها برای دستکاری داده ها استفاده کنید.
با خواندن فایل اکسل شروع کنید و ستون های “عناوین سوال” و “متن سوال” را ترکیب کنید. کتابخانه NLTK و منابع لازم آن مانند Punkt را برای توکنسازی نصب و استفاده کنید، مطمئن شوید که علائم نقطهگذاری و سایر کاراکترهای غیرالفبایی در طول این فرآیند فیلتر میشوند. متن ترکیبی را برای ایجاد پرس و جوهای یک کلمه ای، دو کلمه ای و سه کلمه ای توکن کنید.
قبل از تجزیه و تحلیل فرکانس، کلمات توقف رایج را با استفاده از کتابخانه NLTK فیلتر کنید. علاوه بر کلمات توقف NLTK، فهرستی از 50 افعال کمکی رایج، انقباضات و اصطلاحات محاوره ای را نیز شامل کنید. این لیست اضافی باید روی عباراتی مانند “I would”، “I should”، “I don” و غیره تمرکز کند و با کلمات توقف NLTK استفاده شود.
پس از پاک ، دادهها، از کلاس Counter ماژول مجموعهها برای تعیین متداولترین درخواستهای یک کلمهای، دو کلمهای و سه کلمهای استفاده کنید.
نتایج را در سه برگه جداگانه در یک فایل اکسل جدید به نام “combined-queries.xlsx” ذخیره کنید. برگه ها باید «پرسش های یک کلمه ای»، «پرسش های دو کلمه ای» و «پرسش های سه کلمه ای» نامیده شوند. هر برگه باید پرس و جوها را همراه با تعداد دفعاتی که در Reddit ذکر شده اند فهرست کند.
لیست 5 پرس و جو برتر و تعداد آنها را برای هر گروه در 3 جدول به من نشان دهید.”
تعداد کلمات کلیدی را برای خروجی سریعتر بهینه کنید
هنگام استخراج دادهها از بسیاری از سؤالات، درخواست کلمات کلیدی خروجی کمتری را برای سرعت بخشیدن به فرآیند در نظر بگیرید. به عنوان مثال، اگر دادهها را از 400 سؤال استخراج کردهاید، میتوانید از ChatGPT بخواهید که تنها 3 کلیدواژه اصلی را به شما نشان دهد. اگر می خواهید کلمات کلیدی بیشتری را مشاهده کنید، به سادگی فایل را دانلود کنید. این رویکرد زمان پردازش ChatGPT را کاهش می دهد.
ساده ، اعلان خروج مستقیم
اگر همچنان وقفهها را تجربه میکنید اما نمیخواهید جریان کار را درک کنید، خط زیر را به انتهای درخواست خود اضافه کنید:نیازی به توضیح نیست؛ فقط نتیجه را ارائه دهید. این دستورالعمل ChatGPT را هدایت می کند تا بر ارائه نتیجه دلخواه تمرکز کند.
بینش سئوی داده محور با ChatGPT
اکنون دو مجموعه از داده ها را آماده کرده اید. اولی لیستی از سوالات و آدرسهای اینترنتی، تعداد نظرات و رایهای موافق آنهاست. در همین حال، دوم لیستی از پرس و جوهای یک کلمه ای، دو کلمه ای و سه کلمه ای است.
برای تجزیه و تحلیل یا تجسم این داده ها با ChatGPT، از افزونه Noteable استفاده کنید یا فایل های Excel را از برنامه Noteable دانلود کنید و آنها را در ابزار تجزیه و تحلیل داده ChatGPT آپلود کنید. برای این راهنما، از افزونه Noteable برای حفظ ثبات در یک چت استفاده کنید.
منبع: https://moz.com/blog/build-reddit-keyword-research-tool