أهلا وسهلا بكم, يرجى التواصل معنا لإعلاناتكم التجارية

انت الآن تتصفح منتديات حبة البركة

العودة   منتديات حبة البركة > القسم المتنوع > كمبيوتر وتكنولوجيا
كمبيوتر وتكنولوجيا استفسارات وحلول في مجال الكمبيوتر والتقنية

إضافة رد

 
أدوات الموضوع انواع عرض الموضوع
قديم 07-29-2021, 03:43 PM   #1


الصورة الرمزية مجموعة انسان
مجموعة انسان غير متواجد حالياً

بيانات اضافيه [ + ]
 رقم العضوية : 4
 العلاقة بالمرض: مصابة
 المهنة: لا شيء
 الجنس ~ : أنثى
 المواضيع: 56878
 مشاركات: 6368
 تاريخ التسجيل :  Aug 2010
 أخر زيارة : يوم أمس (08:35 PM)
 التقييم :  95
 مزاجي
 اوسمتي
التميز مشرف مميز 
لوني المفضل : Cadetblue
شكراً: 9,478
تم شكره 17,570 مرة في 8,937 مشاركة
افتراضي عناكب البحث.. كيف تعمل لإيجاد المعلومات عبر ملايين المواقع 




ساهمت محركات البحث في جعل شبكة الإنترنت مترابطة بالشكل الذي نعاصره حاليًا. تتيح هذه الخدمات للمستخدم أن يبحث عن أي موضوع يهمه ويجد ما يناسبه عبر ملايين المواقع على الشبكة. ولعل كثيرا منا قد سأل عن كيفية حدوث ذلك.
ويظهر هذا التساؤل لدى ملايين المستخدمين عند استخدام محرك بحث مثل غوغل. حيث أن المستخدم يقوم بإدخال كلمة ما تعبر عن موضوع يريد أن يعرف المزيد عنه، وفورًا يظهر غوغل آلاف الصفحات المتعلقة بالموضوع.


ويمكن إجابة هذا السؤال بعبارة واحدة وهي “عناكب البحث”. الأساس لعملية البحث عبر الإنترنت والمكون الأساسي لمحركات البحث الحالية.



ما هي عناكب البحث وكيف تعمل

تعرف عناكب البحث بالإنجليزية بـ”Web Crawlers”، وهذا المصطلح يعرّب حرفيًا “زواحف الويب” أو “زواحف الإنترنت”. إلا أنها معروفة مجازًا بعناكب البحث.
وتبدأ عناكب البحث عملها بمجرد قيام المستخدم بكتابة كلمة ما يود أن يبحث عنها ضمن محرك البحث المستخدم. ولا شك أن المحرك الأشهر هو غوغل ويليه بينج من مايكروسوفت.
وهذه العناكب ما هي إلا مجرد برمجيات مؤتمتة. وتعرف أيضًا بأنها روبوتات. وتقوم بالبحث ضمن ملايين النتائج المسجلة مسبقًا ضمن محرك البحث، لتخرج للمستخدم بما يحتاج إليه في النهاية.
وآلية العمل الخاصة بهذه البرمجيات في الواقع بسيطة وفعالة في نفس الوقت. عند قيام المستخدم بأي عملية بحث يقوم المحرك بالاعتماد على تلك الزواحف الإلكترونية باستخراج الصفحات المطلوبة من قواعد البيانات ومن ثم عرضها.
وبعد إتمام هذه العملية تقوم الـWeb Crawlers بتخزين نسخة من الصفحات التي تم عرضها في قاعدة بيانات محرك البحث، وهذا يجعل الوصول لها لاحقًا أسهل وأقل استهلاكًا لموارد المحرك.
ويمكن وصف تلك البرمجيات البسيطة بأنها الوسيط بين المواقع وبين محركات البحث.
لكي تقوم محركات البحث بعرض النتائج من موقع ما، يجب أن يكون "عنكبوت" البحث قد قام بأرشفته سابقًا. وتتم تلك العملية بالاعتماد على عدد من العوامل. وأبرزها أن يطلب صاحب الموقع من محرك البحث أن يعرض نتائجه.


وتقوم محركات البحث -باستخدام عناكبها- بأرشفة صفحات من المواقع المشهورة والموثوقة تلقائيًا، ولهذا تحرص جميع المواقع على "تحسين محركات البحث" لكي يتم عرض نتائجها ضمن بحث غوغل وغيره.
ويمكن لأصحاب المواقع أن يطلبوا من عناكب البحث عدم أرشفة صفحات بعينها. وتتم هذه العملية من خلال ملف معروف باسم robots.txt يقوم صاحب الموقع بإضافته. يعمل هذا الملف على إخبار عناكب البحث بأنه لا يريد منها عرض موقعه أو بعض صفحاته كنتائج بحثية.
وتستفيد المواقع بجميع أنواعها من تلك العملية. حيث أن استهداف الكلمات المفتاحية بشكل جيد يؤدي إلى أن تقوم غوغل بعرضها عند البحث عنها، وينتج عن ذلك زيارات الباحثين لتلك المواقع في النهاية.

ساعد في النشر والارتقاء بنا عبر مشاركة رأيك في الفيس بوك





 
 توقيع : مجموعة انسان







رد مع اقتباس
إضافة رد


تعليمات المشاركة
لا تستطيع إضافة مواضيع جديدة
لا تستطيع الرد على المواضيع
لا تستطيع إرفاق ملفات
لا تستطيع تعديل مشاركاتك

BB code is متاحة
كود [IMG] متاحة
كود HTML معطلة

الانتقال السريع

Facebook Comments by: ABDU_GO - شركة الإبداع الرقمية
مرحبا أيها الزائر الكريم, قرائتك لهذه الرسالة... يعني انك غير مسجل لدينا في الموقع .. اضغط هنا للتسجيل .. ولتمتلك بعدها المزايا الكاملة, وتسعدنا بوجودك

الساعة الآن 01:42 AM.


Powered by vBulletin
Copyright ©2000 - 2024