جاري التحميل...

كيف تمنع Ahrefs و SEMrush من تتبع موقعك وكشف الباك لينكات: دليل كامل

في عالم السيو الحديث، تحرص الشركات والمواقع على حماية استراتيجياتها الرقمية، خصوصاً إذا كانت تعتمد على باك لينكات قوية ومنافسة على كلمات مفتاحية حساسة. أدوات مثل Ahrefs و SEMRush تتيح للمنافسين معرفة الباك لينكات، مما قد يؤثر على استراتيجياتك. في هذه المقالة، نقدم كل الطرق المتاحة لمنع هذه الأدوات من تتبع موقعك، مع الأكواد العملية لكل طريقة.

مقدمة عن الحماية من أدوات تتبع الباك لينك

أدوات مثل Ahrefs و SEMrush تعمل عن طريق زحف الموقع (Crawling) كما يفعل جوجل، لكنها تستخدم User-Agent خاص لجمع بيانات الباك لينكات وتحليل المنافسين. لمنعها، هناك عدة مستويات من الحماية:

  1. منع الزحف على مستوى السيرفر.
  2. منع الزحف على مستوى ملف robots.txt.
  3. منع الولوج من خلال أكواد PHP أو .htaccess.
  4. استخدام تقنيات JavaScript لتأخير ظهور الروابط.
  5. حماية الباك لينكات عن طريق الروابط nofollow أو redirect.

لماذا شركة سيو سمارتر تفهم أهمية الحماية

شركة سيو سمارتر، أفضل شركة سيو في السعودية، تدرك أن حماية الباك لينكات جزء أساسي من استراتيجيات SEO المتقدمة، خصوصاً في المنافسة على الكلمات المفتاحية الصعبة في الرياض وجدة والمملكة. بالتالي، اعتماد خطوات حماية متقدمة يزيد من قوة الموقع ويقلل من كشف المنافسين لاستراتيجياتك.


1. استخدام ملف robots.txt لمنع الزحف

ملف robots.txt هو أول خط دفاع لمنع أي زاحف غير مرغوب فيه من الوصول إلى صفحاتك أو روابطك.

مثال عملي لمنع Ahrefs و SEMrush:

User-agent: AhrefsBot
Disallow: /User-agent: SEMrushBot
Disallow: /User-agent: *
Allow: /

شرح:

  • User-agent يحدد اسم الزاحف.
  • Disallow: / يمنع الوصول إلى أي صفحة في الموقع.
  • Allow: / يسمح لمحركات البحث الشرعية مثل جوجل بالزحف.

ملاحظة: أسماء User-Agent يجب التأكد منها من موقع Ahrefs و SEMrush لأنها قد تتغير.


2. الحماية عبر ملف .htaccess (Apache)

يمكن منع أي زاحف عن طريق التحقق من User-Agent على مستوى السيرفر:

<IfModule mod_rewrite.c>
RewriteEngine On# منع Ahrefs
RewriteCond %{HTTP_USER_AGENT} AhrefsBot [NC]
RewriteRule .* - [F,L]# منع SEMrush
RewriteCond %{HTTP_USER_AGENT} SEMrushBot [NC]
RewriteRule .* - [F,L]
</IfModule>

شرح:

  • [NC] يعني case-insensitive أي لا يهم إذا كانت الأحرف كبيرة أو صغيرة.
  • [F,L] يعني رفض الوصول وإرجاع 403 فوراً.

هذا الحل قوي جداً لأنه يمنع الزحف نهائياً، حتى قبل تحميل الصفحة.


3. منع الوصول عبر PHP

يمكنك منع أي زاحف عن طريق كود في functions.php الخاص بووردبريس:

function block_scrapers() {
$user_agent = $_SERVER['HTTP_USER_AGENT']; if (stripos($user_agent, 'AhrefsBot') !== false || stripos($user_agent, 'SEMRushBot') !== false) {
header('HTTP/1.0 403 Forbidden');
exit;
}
}
add_action('init', 'block_scrapers');

ميزة هذه الطريقة:

  • تعمل على ووردبريس مباشرة.
  • تمنع أي محاولة وصول قبل تحميل أي محتوى.
  • يمكنك إضافة أي زاحف آخر بسهولة.

4. استخدام JavaScript لتأخير تحميل الروابط الحساسة

في بعض الحالات، يمكن استخدام JavaScript لتأخير ظهور الروابط:

<script>
document.addEventListener("DOMContentLoaded", function() {
var backlinks = document.querySelectorAll('.protected-link');
backlinks.forEach(function(link){
link.setAttribute('href', link.getAttribute('data-href'));
});
});
</script><a class="protected-link" data-href="https://example.com/target-page">زيارة الصفحة</a>
  • الروابط لا تظهر للزواحف التي لا تنفذ JS مثل Ahrefs و SEMrush.
  • تظهر للزوار الطبيعيين فقط.

هذه الطريقة مناسبة لحماية باك لينكات أو روابط الشركاء.


5. استخدام rel=”nofollow” و rel=”sponsored” للروابط الخارجية

<a href="https://example.com" rel="nofollow sponsored">الرابط الخارجي</a>
  • nofollow يمنع نقل سلطة الصفحة للزاحف.
  • sponsored يوضح أن الرابط إعلان أو محتوى مدفوع.

هذه طريقة بسيطة لحماية روابطك من أن يكتشفها Ahrefs و SEMrush بسهولة.


6. استخدام CDN أو Firewall لمنع الزواحف

يمكنك منع الزواحف عبر إعدادات Cloudflare أو أي CDN:

  1. الذهاب إلى Firewall Rules.
  2. إنشاء قاعدة:
    • إذا كان User-Agent يحتوي على AhrefsBot أو SEMrushBot → Block.
  3. حفظ التغييرات.

ميزة هذا الحل:

  • يقلل من استهلاك موارد السيرفر.
  • يمنع الزواحف قبل الوصول للسيرفر.

7. إخفاء الروابط على الصفحات العامة

  • يمكن استخدام روابط redirect مؤقتة (302) للروابط الحساسة.
  • توجيه الزوار الحقيقيين فقط إلى الصفحة النهائية.
  • الزواحف التي تتبع الروابط ستجد رابطًا مؤقتًا ولا تحصل على الباك لينك الفعلي.
<?php
// redirect.php
$allowed_ips = ['123.456.789.1']; // IP زوار حقيقيين
if(!in_array($_SERVER['REMOTE_ADDR'], $allowed_ips)) {
header('HTTP/1.0 403 Forbidden');
exit;
}
header('Location: https://example.com/real-page');
exit;
?>

8. مراقبة ومحاربة الزواحف بشكل مستمر

حتى بعد كل الإجراءات، من المهم متابعة Access Logs:

# مثال على Linux لمراقبة User-Agent
cat /var/log/apache2/access.log | grep -i "Ahrefs"
cat /var/log/apache2/access.log | grep -i "SEMRush"
  • يسمح لك بمعرفة أي زاحف يحاول الوصول.
  • تحديث القواعد باستمرار يحمي موقعك.

خلاصة

من خلال تطبيق هذه الطرق المتنوعة:

  1. robots.txt لمنع الزواحف الأساسية.
  2. .htaccess أو PHP لمنع الوصول المباشر.
  3. JavaScript لتأخير ظهور الروابط الحساسة.
  4. Nofollow / sponsored لحماية الروابط الخارجية.
  5. استخدام CDN / Firewall لحظر الزواحف على مستوى الشبكة.
  6. مراقبة Access Logs باستمرار.

ستتمكن شركة سيو سمارتر، أفضل شركة سيو في السعودية، من حماية موقعها وباك لينكاتها من أدوات التحليل مثل Ahrefs و SEMrush، والحفاظ على قوة السيو والسرية التنافسية.