איך לעשות אופטיציה לאתר?
אם יש לך אתר בוורדפרס, פעמים רבות הקבצים הרבים מעמיסים על השרת, עד כדי שיכול לקרוס. לכן יש צורך לעשות אופטימציה לקבצים. ישנם כמה עיצות:
1- ב C PANEL תחת לשונית software/sevice - יש לשונית optimize website- , בחר את האפשרות "Compress the specified MIME types" ולחץ אישור. הפקודה הזו אומרת לדחוס את הקבצים לפני שנראים בדפדן כך שיש פחות עומס על השרת. זו עיצה שנותנים hostgator ועוד. ראה כאן
2- יש להתקין תוסף שגורם לטעון את האתר מקבצים שמורים בדפדפן של הגולש. כך שבכל טעינת דף המשתמש שואב פחות משאבים מהמערכת.
תוסף מומלץ על ידי הוסטגייטור ראה כאן
אם יש לך אתר בוורדפרס, פעמים רבות הקבצים הרבים מעמיסים על השרת, עד כדי שיכול לקרוס. לכן יש צורך לעשות אופטימציה לקבצים. ישנם כמה עיצות:
1- ב C PANEL תחת לשונית software/sevice - יש לשונית optimize website- , בחר את האפשרות "Compress the specified MIME types" ולחץ אישור. הפקודה הזו אומרת לדחוס את הקבצים לפני שנראים בדפדן כך שיש פחות עומס על השרת. זו עיצה שנותנים hostgator ועוד. ראה כאן
2- יש להתקין תוסף שגורם לטעון את האתר מקבצים שמורים בדפדפן של הגולש. כך שבכל טעינת דף המשתמש שואב פחות משאבים מהמערכת.
תוסף מומלץ על ידי הוסטגייטור ראה כאן
Install W3 Total Cache
To install W3TC:
- Go to your WordPress Dashboard.
- Go to Plugins > Add New.
- Search for W3 Total Cache.
- Click Install Now.
- Click Activate Plugin.
- Upon activation of the plugin, a new menu option will be added in the WordPress admin panel called Performance.
- Click on the Performance tab to enter the configuration information.
או התוסף הזה (לא שניהם יחד):
WP Super Cache Plugin
ראה כאן בהוסטגייטור
3-
יש להוסיף קובץ TXT שנקרא : Robots.txt . פעמים רבות הרובוטים של מנועי החיפוש מפילים את השרת על ידי שסורקים עשרות ומאות אלפי פעמים בזמן קצר. ולכן קובץ זה מגדיר להם לאיזו רמת סריקה המערכת שלכם מסוגלת לקבל. זו רק המלצה למנועי חיפוש. לאחר יצירת הקובץ יש להעלות אותו לשרת לרמה העליונה של הדומיין שיראה כך:
yourdomain.co.il/robots.txt
ראה כאן הסבר בהוסטגייטור הוסטגייטור כותבים שם לשים קובץ שיאמר לגוגל ובינג בכלל לא לסרוק את האתר. מה שלא הגיוני כיון שמטרת האתר שיגיעו גולשים ממנועי חיפוש. בעל פה אומרים הוסטגייטור שם יהיו עד עשרים סריקות בשניה זה לא יעמיס על השרת. הנוהג להגדיר סריקה אחת לשניה
תוכלו ליצור את הקובץ באתר הזה mcanerin.com
הקובץ יראה כך בעיכוב של הרובוטים הסורקים לשניה לכל סריקה:
# robots.txt generated at http://www.mcanerin.com
User-agent: Googlebot
Disallow:
User-agent: bingbot
Disallow:
User-agent: MSNBot
Disallow: /
User-agent: Slurp
Disallow: /
User-agent: Teoma
Disallow: /
User-agent: twiceler
Disallow: /
User-agent: Gigabot
Disallow: /
User-agent: Scrubby
Disallow: /
User-agent: Robozilla
Disallow: /
User-agent: Nutch
Disallow: /
User-agent: ia_archiver
Disallow: /
User-agent: baiduspider
Disallow: /
User-agent: naverbot
Disallow: /
User-agent: yeti
Disallow: /
User-agent: yahoo-mmcrawler
Disallow: /
User-agent: asterias
Disallow: /
User-agent: yahoo-blogs/v3.9
Disallow: /
User-agent: *
Disallow:
Crawl-delay: 1
Disallow: /cgi-bin/
יש להעתיק קוד זה ולשים בקובץ טקסט פשוט ולשמור כשם קובץ robots.txt כאמור.
4- יש להפחית באתר בכמה שפחות תוספים שיש בהם הרבה סקריפטים והפניות שמעמיסים על השרת. וכן לשים תמונות שאינן גדולות וכבדות. וכן לא לשים המון פרסומות.