راقب ملفاتك على الخادم

سواء كنت تستخدم ملفات HTML أو نظام إدارة المحتوى مثل ووردبريس عليك بمراقبة ملفاتك على الخادم ومعرفة حركة المرور وعدد الطلبات التي تتم على الملفات، وذلك لحماية الموقع من الاختراق، وأيضا لحماية استهلاك الباندودث وهذا بدوره سوف يوفر بعض المال الذي يدفع شهريا لاستضافة الموقع.

استخدم تطبيقات تحليل وإحصاء ملفات logs على الخادم حيث تعطي نتائج هذه التحليلات معلومات فعلية عن حركة المرور وعدد الطلبات على الملفات بالإضافة إلى معلومات عن مصدر هذه الطلبات.
من الأمثلة على هذه التطبيقات:
http://www.awstats.org/
http://www.webalizer.org/

هذه التحليلات تساعدك على اتخاذ قرارات مثل حجب مصادر الطلبات التي تشك فيها والتي يظهر أنها تستخدم برامج آلية وروبوتات قد تكون مشبوهة وقد تؤثر على أداء موقعك.
وعن طريق ملفات .htaccess يمكنك حجب عناوين IP ومنعها من الوصول إلى موقعك أو منع الوصول إلى صفحات وملفات معينة يمكنك تحديدها.

حدد وصول البرامج والسكربتات الآلية إلى بعض الصفحات وذلك بتركيب captcha وخصوصا على الصفحات التي تحتوي على نماذج إدخال بيانات مما يقلل من وصول البرامج الآلية لهذه الصفحات وتقليل الضغط على الخادم وقواعد البيانات وبذلك تتأكد أن مستخدم هذه الصفحات هو إنسان وليس برنامج آلي.

حدد الروبوتات المسموح لها البحث في موقعك، بالإضافة إلى تحديد المجلدات والملفات التي يسمح للروبوتات البحث فيها وأرشفتها وذلك عن طريق ملف robots.txt.
هناك خدمات مجانية لإنشاء ملف robots.txt مثل
http://tools.seobook.com/robots-txt/generator/
http://www.robotsgenerator.com/

ملاحظة: ما ذكرته في الأعلى هو فقط حول خوادم أباتشي Apache web server
خدمة google analytics لا تعطي معلومات دقيقة مثل تحليل ملفات logs

تم النشر في
مصنف كـ عام

بواسطة أسامة يونس

استشاري في تصميم المنتجات الرقمية، شاركت في تطوير مواقع حكومية وعالمية، اقدم المساعدة لبناء منتجات منافسة وناجحة. خدماتي متوفرة على: osamayy.com.

اترك تعليقًا

لن يتم نشر عنوان بريدك الإلكتروني.