دوشنبه ۰۱ اردیبهشت ۹۹ ۱۴:۱۹ ۱,۰۱۸ بازديد
طراحی سایت در مشهد ساختار وبسایت بایستی طوری باشد که محتوا را به راحتی در دسترس بازدید کنندگان قرار دهد. صفحه های مهم را بیش تر از سه کلیک بدور از کاغذ اصلی نگه ندارید.
ساختار تارنما ایده آل بایستی این چنین باشد:
Homepage > Categories > Products
میتوانید از افزودن پایین شاخه ها در تارنما های کوچکتر دوری کنید. اطمینان نتیجه ها نمائید که هر متاع صرفا به یک نوع یا این که ذیل تیم وابستگی دارااست. به همین ترتیب ، ساختار شما نیز می بایست بدیهی و سازگار باشد.
برای مثال ، درصورتی که در درحال حاضر فروش تلفن هوشمند سامسونگ Galaxy M30 میباشید ، نشانی اینترنتی بایستی:
ساختار URL صحیح : www.example.com/phone/samsung/Galaxy-M30
ساختار url نادرست : www.example.com/samsung/Galaxy-M30
با این حالا ، همت فرمایید ارتفاع URL را تحت 160 نویسه نگه دارید.
تحت عنوان راهنمای کلی دربارهی ساختارهای نشانی دکان اینترنتی:
آن را تا حد قابلیت کوتاه نگه دارید
از واژه کلیدی خویش در url به کارگیری نمایید
سلسله مراتب را رعایت فرمایید
مدام برای غیروابسته کردن لغت ها از (/) استعمال نمایید
2-وب سایت مپ (Sitemap)
دو مدل نقشه وبسایت موجود است: XML و HTML.
در طرز بهینه سازی دکان اینترنتی ، هر یک نقاط قوت و ضعف خویش را دارا هستند.
نقشه های HTML به صورت کلی برای یاری به خریداران در پیمایش ساخت می گردند. از طرف دیگر ، نقشه های XML برای اطمینان از اینکه روبات های موتورهای کاوش میتوانند URL های مو جود را در وبسایت به صورت درست فهرست کنند
نقشه های XML کلاً معمولی خیس می باشند. گزینه استعمال قرار میگیرند تا داده ها وبسایت برای روبات ها و ماشین آلات قابل تلاوت باشد.
این نقشه ها لیستی میباشد که با XML مشخص و معلوم شدهاست. بدین ترتیب موتورهای کاوش میتوانند باگاز صفحه های را پیدا نمایند. و ان ها را ایندکس نمایند xml-sitemap
برای بهینه سازی ، نقشه های XML تحت عنوان دعوت طومار ای برای خزیدن URL هست.
این نقشه ها بوسیله بسط دهندگان ساخت می گردند.
نقشه های HTML : فهم ان ها در نگاه نخستین بسیار سهل وآسان خیس میباشد. و به پیمایش اسان خیس یوزرها در تارنما امداد مینماید. تا یوزرها بتوانند شل خیس در لایه های عمیق وب سایت تکان نمایند
در فیض ، صفحه ها در حالت بهتری قرار میگیرند.
html-sitemap
نقشه های HTML به تعدادی برهان مهم میتوانند گرانبها باشند:
در صورتیکه پیمایش در تارنما شما نقص و سخت میباشد.
صفحاتی که به نقشه وبسایت HTML دارای ارتباط می باشند مهم میباشند.
3. بهبود میزان دارایی خزیدن
crawl-budget
تعداد صفحه های در وبسایت شما که رباتهای موتور های کاوش هر روز در ان میخزند ، دارایی خزیدن شما میباشد.
دارایی خزیدن نادر ، میتواند باعث به فهرست بندی موضوعات مؤثر بر سکو بندی جستجوی شما شود.
به جهت حجم زیاد صفحه ها در کسب و عمل های فروشگاهی ، اکثر سایت های فروشگاهی می بایست میزان دارایی خزیدن خویش را با صرفه نمایند.
برای بهبود میزان دارایی خزیدن:
ساختار لینک و پیوند سازی وب سایت خویش را باصرفه فرمایید.
محتواهای تکراری را حذف نمایید.
پیوند های شکسته و وخیم را برطرف نمائید.
نقشه وب سایت خویش را مرتباً آپ تو دیت نمائید.
4. بهبود خزیدن ربات ها در سایت
Crawl the Website
شما میتوانید از ابزارهایی مانند Screaming Frog ، SEMrush ، Ahrefs و DeepCrawl برای شناسایی و رفع گونه های خطای HTTP به کارگیری فرمائید ، از پاراگراف حطا ها را می اقتدار:
خطاهای تغییر و تحول مسیر 3XX.
خطاهای یافت نشدن برگه 4XX.
خطاهای سرور 5XX
همینطور میتوانید با استعمال از این ابزار ، عنا وین ورقه تکراری یا این که مفقود گردیده ، متن های یکسان alt ، برچسب ها تگ های H یا این که توضیحات متا را شناسایی فرمائید
5. استعمال از Canonical Tags
بعضی وقت ها ، سایتهای پهناور فروشگاهی دارنده صفحه ها متاع از چندین جور میباشند. چنین قوانینی اکثر زمان ها سبب به URL های گوناگون با محتوای یکسان میگردند.
برای خودداری از این ، از تگ Canonical به کارگیری فرمایید. این عنصر HTML بی آلایش به موتور کاوش میگوید که کدام ورژن URL می بایست خزیده گردیده و در نتیجه ها کاوش نشان داده شود.
6. استعمال صحیح از Robots.txt
Robotstxt
Robots.txt پرونده هایی میباشند که نشان میدهند کدام بخش از برگه یا این که تارنما نباید به وسیله رباتهای موتور کاوش خزیده شود.
استعمال از Robots.txt هدف ها بخش اعظمی را ارائه میدهد:
صفحه های غیر همگانی – مانند صفحه ها ورود به سیستم ، فرم ها یا این که صفحه های دربردارنده داده ها حساس را مسدود مینماید.
میزان دارایی خزیدن شمارا به حداکثر میرساند – صفحه های بی اهمیت را مسدود نمائید.
میتوانید از خزیدن ربات ها در صفحاتی مانند – PDF ها ، تصاویر و غیره. خودداری نمائید.
این روز ها ، اکثر وبسایت ها از Robots.txt به کارگیری نمیکنند – چون گوگل در یافتن و فهرست بندی مهمترین صفحه های در سایت ها بسیار خوب کار نموده است.
با این هم اکنون ، در وبسایت های فروشگاهی ، تعدادی دسته برگه موجود است که به کار گیری از پرونده های Robots.txt عاقلانه خیس میباشد.
7. صفحه ها محصولاتی را که حذف گردیده اند را تغییرو تحول مسیر دهید
اضافه دکان های آنلاین دارنده چندین کاغذ میباشند. که تولیدها ان ها حذف گردیده.
اگرچه حذف شدن فرآورده صفحه های یک فرمان معمول میباشد ، البته شما میتوانید URL های ان ها را به دارای ارتباط ترین ورقه تغییر تحول مسیر دهید. تا بها ان ها را به صفحه های دارای ربط ان بدهید.
8. مطالب تکراری و بی قیمت
محتوای تکراری میتواند برای بهینه سازی در کسب و فعالیت های اینترنتی ایراد دورازشوخی تولید نماید.یک حقیقت رایج این میباشد.
که موتورهای کاوش دائماً خویش را برای اجرو پاداش دادن به اینترنت سایتهایی که محتوای منحصر با بالاترین کیفیت ارائه میدهند ، پالایش میکنند.
از آنجا که محتوای بی بها برای تجربه استفاده کننده مطلوب وجود ندارد ، میتواند کیفیت سایت شمارا (از دید موتورهای کاوش) ذیل بیاورد.
9. خطاهای 3xx ، 4xx ، 5xx را برطرف نمائید
کدهای موقعیت HTTP جواب سرور به درخواست مرورگر میباشد. وقتی که فردی به سایت شما مراجعه مینماید ، مرورگر آنان درخواستی را به سرور شما ارسال میکند ، که آن گاه با یک کد سه رقمی جواب میدهد.
از پنج کد حالت متداول ، دو آیتم نخستین معمولاً مسائل بزرگی نیستند.
1xx – سرور در اکنون پردازش درخواست میباشد.
2xx – درخواست با برد انجام شد.
سه گزینه بعدی میتوانند نقص ساز باشند.
3xx – درخواست گرفته شد ، ولی استفاده کننده در جای دیگری هدایت شد. مشتمل بر 300 ، 301 ، 302 ، 303 ، 304 ، 305 ، 306 ، 307 و 308 غلط میباشد.
4xx – خطای مشتری. کاغذ یافت نشد. این بدان معناست که یک درخواست انجام یافته میباشد ، البته مشکلی در سوی تارنما موجود هست. این کاغذ معمولاً وقتی ظواهر میشود که یک کاغذ در یک سایت وجود نداشته باشد. مشتمل بر 400 ، 401 ، 403 و 404 غلط میباشد.
5xx – این بدان معنا میباشد که درخواست ساخته شده است ، البته سرور نتوانست جواب دهد یا این که درخواست را کامل شدن نماید. دربرگیرنده خطاهای 500 ، 501 ، 502 ، 503 ، 504 ، 505 ، 506 ، 507 ، 508 ، 509 و 510 میباشد.
این کدهای حالت HTTP برای محاسبه seo و تن درستی وبسایت شما بسیار مهم میباشند.
رباتهای Google از دید روش خزیدن و فهرست بندی صفحه ها در سایت شما با این کدها متعدد کردار میکنند.
در حالی که اکثر کدها ضرورت اضطراری ندارند ، 3xx ، 4xx و 5xx مواقعی می باشند که آیتم دقت شما میباشند.
این کدهای حالت HTTP برای تحلیل بهینه سازی و سالمی وبسایت شما بسیار مهم میباشند.
در حالی که اکثر کدها ضرورت اضطراری ندارند ، 3xx ، 4xx و 5xx مواقعی می باشند که بایستی به ان اعتنا داشته باشید.
ساختار تارنما ایده آل بایستی این چنین باشد:
Homepage > Categories > Products
میتوانید از افزودن پایین شاخه ها در تارنما های کوچکتر دوری کنید. اطمینان نتیجه ها نمائید که هر متاع صرفا به یک نوع یا این که ذیل تیم وابستگی دارااست. به همین ترتیب ، ساختار شما نیز می بایست بدیهی و سازگار باشد.
برای مثال ، درصورتی که در درحال حاضر فروش تلفن هوشمند سامسونگ Galaxy M30 میباشید ، نشانی اینترنتی بایستی:
ساختار URL صحیح : www.example.com/phone/samsung/Galaxy-M30
ساختار url نادرست : www.example.com/samsung/Galaxy-M30
با این حالا ، همت فرمایید ارتفاع URL را تحت 160 نویسه نگه دارید.
تحت عنوان راهنمای کلی دربارهی ساختارهای نشانی دکان اینترنتی:
آن را تا حد قابلیت کوتاه نگه دارید
از واژه کلیدی خویش در url به کارگیری نمایید
سلسله مراتب را رعایت فرمایید
مدام برای غیروابسته کردن لغت ها از (/) استعمال نمایید
2-وب سایت مپ (Sitemap)
دو مدل نقشه وبسایت موجود است: XML و HTML.
در طرز بهینه سازی دکان اینترنتی ، هر یک نقاط قوت و ضعف خویش را دارا هستند.
نقشه های HTML به صورت کلی برای یاری به خریداران در پیمایش ساخت می گردند. از طرف دیگر ، نقشه های XML برای اطمینان از اینکه روبات های موتورهای کاوش میتوانند URL های مو جود را در وبسایت به صورت درست فهرست کنند
نقشه های XML کلاً معمولی خیس می باشند. گزینه استعمال قرار میگیرند تا داده ها وبسایت برای روبات ها و ماشین آلات قابل تلاوت باشد.
این نقشه ها لیستی میباشد که با XML مشخص و معلوم شدهاست. بدین ترتیب موتورهای کاوش میتوانند باگاز صفحه های را پیدا نمایند. و ان ها را ایندکس نمایند xml-sitemap
برای بهینه سازی ، نقشه های XML تحت عنوان دعوت طومار ای برای خزیدن URL هست.
این نقشه ها بوسیله بسط دهندگان ساخت می گردند.
نقشه های HTML : فهم ان ها در نگاه نخستین بسیار سهل وآسان خیس میباشد. و به پیمایش اسان خیس یوزرها در تارنما امداد مینماید. تا یوزرها بتوانند شل خیس در لایه های عمیق وب سایت تکان نمایند
در فیض ، صفحه ها در حالت بهتری قرار میگیرند.
html-sitemap
نقشه های HTML به تعدادی برهان مهم میتوانند گرانبها باشند:
در صورتیکه پیمایش در تارنما شما نقص و سخت میباشد.
صفحاتی که به نقشه وبسایت HTML دارای ارتباط می باشند مهم میباشند.
3. بهبود میزان دارایی خزیدن
crawl-budget
تعداد صفحه های در وبسایت شما که رباتهای موتور های کاوش هر روز در ان میخزند ، دارایی خزیدن شما میباشد.
دارایی خزیدن نادر ، میتواند باعث به فهرست بندی موضوعات مؤثر بر سکو بندی جستجوی شما شود.
به جهت حجم زیاد صفحه ها در کسب و عمل های فروشگاهی ، اکثر سایت های فروشگاهی می بایست میزان دارایی خزیدن خویش را با صرفه نمایند.
برای بهبود میزان دارایی خزیدن:
ساختار لینک و پیوند سازی وب سایت خویش را باصرفه فرمایید.
محتواهای تکراری را حذف نمایید.
پیوند های شکسته و وخیم را برطرف نمائید.
نقشه وب سایت خویش را مرتباً آپ تو دیت نمائید.
4. بهبود خزیدن ربات ها در سایت
Crawl the Website
شما میتوانید از ابزارهایی مانند Screaming Frog ، SEMrush ، Ahrefs و DeepCrawl برای شناسایی و رفع گونه های خطای HTTP به کارگیری فرمائید ، از پاراگراف حطا ها را می اقتدار:
خطاهای تغییر و تحول مسیر 3XX.
خطاهای یافت نشدن برگه 4XX.
خطاهای سرور 5XX
همینطور میتوانید با استعمال از این ابزار ، عنا وین ورقه تکراری یا این که مفقود گردیده ، متن های یکسان alt ، برچسب ها تگ های H یا این که توضیحات متا را شناسایی فرمائید
5. استعمال از Canonical Tags
بعضی وقت ها ، سایتهای پهناور فروشگاهی دارنده صفحه ها متاع از چندین جور میباشند. چنین قوانینی اکثر زمان ها سبب به URL های گوناگون با محتوای یکسان میگردند.
برای خودداری از این ، از تگ Canonical به کارگیری فرمایید. این عنصر HTML بی آلایش به موتور کاوش میگوید که کدام ورژن URL می بایست خزیده گردیده و در نتیجه ها کاوش نشان داده شود.
6. استعمال صحیح از Robots.txt
Robotstxt
Robots.txt پرونده هایی میباشند که نشان میدهند کدام بخش از برگه یا این که تارنما نباید به وسیله رباتهای موتور کاوش خزیده شود.
استعمال از Robots.txt هدف ها بخش اعظمی را ارائه میدهد:
صفحه های غیر همگانی – مانند صفحه ها ورود به سیستم ، فرم ها یا این که صفحه های دربردارنده داده ها حساس را مسدود مینماید.
میزان دارایی خزیدن شمارا به حداکثر میرساند – صفحه های بی اهمیت را مسدود نمائید.
میتوانید از خزیدن ربات ها در صفحاتی مانند – PDF ها ، تصاویر و غیره. خودداری نمائید.
این روز ها ، اکثر وبسایت ها از Robots.txt به کارگیری نمیکنند – چون گوگل در یافتن و فهرست بندی مهمترین صفحه های در سایت ها بسیار خوب کار نموده است.
با این هم اکنون ، در وبسایت های فروشگاهی ، تعدادی دسته برگه موجود است که به کار گیری از پرونده های Robots.txt عاقلانه خیس میباشد.
7. صفحه ها محصولاتی را که حذف گردیده اند را تغییرو تحول مسیر دهید
اضافه دکان های آنلاین دارنده چندین کاغذ میباشند. که تولیدها ان ها حذف گردیده.
اگرچه حذف شدن فرآورده صفحه های یک فرمان معمول میباشد ، البته شما میتوانید URL های ان ها را به دارای ارتباط ترین ورقه تغییر تحول مسیر دهید. تا بها ان ها را به صفحه های دارای ربط ان بدهید.
8. مطالب تکراری و بی قیمت
محتوای تکراری میتواند برای بهینه سازی در کسب و فعالیت های اینترنتی ایراد دورازشوخی تولید نماید.یک حقیقت رایج این میباشد.
که موتورهای کاوش دائماً خویش را برای اجرو پاداش دادن به اینترنت سایتهایی که محتوای منحصر با بالاترین کیفیت ارائه میدهند ، پالایش میکنند.
از آنجا که محتوای بی بها برای تجربه استفاده کننده مطلوب وجود ندارد ، میتواند کیفیت سایت شمارا (از دید موتورهای کاوش) ذیل بیاورد.
9. خطاهای 3xx ، 4xx ، 5xx را برطرف نمائید
کدهای موقعیت HTTP جواب سرور به درخواست مرورگر میباشد. وقتی که فردی به سایت شما مراجعه مینماید ، مرورگر آنان درخواستی را به سرور شما ارسال میکند ، که آن گاه با یک کد سه رقمی جواب میدهد.
از پنج کد حالت متداول ، دو آیتم نخستین معمولاً مسائل بزرگی نیستند.
1xx – سرور در اکنون پردازش درخواست میباشد.
2xx – درخواست با برد انجام شد.
سه گزینه بعدی میتوانند نقص ساز باشند.
3xx – درخواست گرفته شد ، ولی استفاده کننده در جای دیگری هدایت شد. مشتمل بر 300 ، 301 ، 302 ، 303 ، 304 ، 305 ، 306 ، 307 و 308 غلط میباشد.
4xx – خطای مشتری. کاغذ یافت نشد. این بدان معناست که یک درخواست انجام یافته میباشد ، البته مشکلی در سوی تارنما موجود هست. این کاغذ معمولاً وقتی ظواهر میشود که یک کاغذ در یک سایت وجود نداشته باشد. مشتمل بر 400 ، 401 ، 403 و 404 غلط میباشد.
5xx – این بدان معنا میباشد که درخواست ساخته شده است ، البته سرور نتوانست جواب دهد یا این که درخواست را کامل شدن نماید. دربرگیرنده خطاهای 500 ، 501 ، 502 ، 503 ، 504 ، 505 ، 506 ، 507 ، 508 ، 509 و 510 میباشد.
این کدهای حالت HTTP برای محاسبه seo و تن درستی وبسایت شما بسیار مهم میباشند.
رباتهای Google از دید روش خزیدن و فهرست بندی صفحه ها در سایت شما با این کدها متعدد کردار میکنند.
در حالی که اکثر کدها ضرورت اضطراری ندارند ، 3xx ، 4xx و 5xx مواقعی می باشند که آیتم دقت شما میباشند.
این کدهای حالت HTTP برای تحلیل بهینه سازی و سالمی وبسایت شما بسیار مهم میباشند.
در حالی که اکثر کدها ضرورت اضطراری ندارند ، 3xx ، 4xx و 5xx مواقعی می باشند که بایستی به ان اعتنا داشته باشید.