د/ايمان زغلول قاسم

استاذ تكنولوجيا التعليم المشارك بكلية التربية بالزلفي

الروبوتات1

روبوتات محركات البحث:

ومن أكثر أنواع الروبوت انتشاراً هي Web Robots  ، وهي عبارة عن برامج صممت لتقوم بزيارة مواقع الويب وتقوم بتجميع مجموعة كلمات لتعطي المعنى، أو الغرض الإجمالي من موضوع الموقع. وموقع الويب يتم تجزئته إلى صفحات مفردة ووصلات وما يقوم الروبوت بعمله في هذه الأجزاء يعتمد على طريقة برمجته. ومعظم الروبوتات تقوم على الأقل بحفظ سجل بمحتويات الصفحة وملاحظة أي وصلات موجودة بداخل هذه الصفحة، وتقوم بوضع الوصلات في صف مرتب في قائمة الصفحات لتزورها بعد ذلك، وبهذا يتم تكوين قاعدة بيانات ضخمة من المعلومات تجمع كلها في قواعد بيانات محركات البحث.

وترجع أهمية الروبوت إلى كفاءته في جمع المعلومات والمصادر المختلفة المتاحة على الشبكة العنكبوتية بكفاءة وسرعة عالية أكثر بكثير مما يستطيع المستخدم البشري أن يقوم به. فالروبوت لديه القدرة على تحديد مكان أي موقع ويقوم بمسحه كله ووضعه في كتالوج فيما لا يزيد عن لحظات، وهذه العملية قد تستغرق في حدود ساعة إذا ما قام بها شخص متمرس.

وفي بداية ظهور الروبوتات، كانت البعض منها تستخدم لاكتشاف وعمل خريطة للشبكة العنكبوتية، تسمح للباحثين بالحصول على معلومات تخص مقدمي المعلومات والمصادر التي يحصلون عليها.

وبالرغم من أن الروبوت يعمل بنفس الطريقة التي تعمل بها  برامج متصفحات الشبكة العنكبوتية مثلInternet explorer or Netscape navigator  وغيرها. إلا أن الروبوت يختلف عنها في انه يحذف الأشكال والرسوم Graphics  ويتعامل فقط مع مصدر الوثيقة.

وكما يطلب المتصفح وثائق معينة من موقع معين عن طريق تحديد العنوان الإلكتروني (URL)  فإن الروبوت يقوم بنفس العمل، ويقوم الروبوت بعمل مسح شامل للوثيقة بحثاً عن كلمات مفتاحية، أو أي محتويات أخرى وفقاً لما صممه المبرمج الذي أنشأ هذا الروبوت.

هناك استخدام هام آخر للروبوتات، وهو التأكد من صحة الوصلات الموجودة في صفحات الشبكة وللتأكد من تغير محتويات الصفحات من عدمه وهذه الروبوتات يطلق عليها أحياناً روبوتات الصيانة Maintenance Bots  ومن أمثلة ذلك روبوت يمسى MOM وبعد أن يقوم الروبوت بعمله يقوم برنامج المفهرس Indexer بفهرسة كافة الوثائق التي قام البرنامج الآلي بتجميع نسخ منها، وتتم هذه العملية بجرد كل محتوى الوثيقة لاستخراج ما تحتويه من مصطلحات وتعبيرات يتم اختيارها وفق ترتيب معين للأهمية التي تكتسبها داخل الوثيقة. ثم يقوم برنامج المفهرس بفحص المعلومات المخزنة في قاعدة البيانات وينشئ جداول تحتوى قوائم مرتبة أبجدياً بالكلمات الرئيسية الهامة داخل الصفحات التي تم العثور عليها.

وتضم قاعدة بيانات المحرك جميع البيانات المخزنة حول صفحات الشبكة وتتضمن مجموعة بيانات الصفحات التي تم التعرف عليها من قبل الروبوت وكذلك تستقبل المواقع المضافة عن طريق الناشرين أنفسهم  وعند البحث عن مصطلح ما يبدأ باستخدام واجهة محرك البحث وهي الجانب المرئي من المحرك،  ومن خلالها يدخل الباحث مصطلح البحث الخاص به ليتم عرض النتائج الخاصة بالبحث في شكل قائمة لعناوين الوثائق.

    وجودة أي محرك بحث تقاس بجودة المعلومات التي تحتويها قاعدة بياناته فاذا ظهرت صفحة جديدة على الشبكة العنكبوتية العالمية ولا يعرف محرك البحث عنها شيئاً فهو بالتالي لن يستطيع الحصول على أي معلومة خاصة بهذه الصفحة ولهذا تختلف نتائج البحث من محرك بحث لآخر فكل منها يقوم بالبحث بطريقة مختلفة.

وتتأثر النتائج بمجموعة من العوامل مثل  حجم قاعدة البيانات وعدد مرات تكرار تحديث المعلومات في فترة معينة وقدرات وإمكانيات البحث. وتختلف محركات البحث في سرعة استجابتها لطلبات البحث، وفي واجهات التفاعل، فبعضها له أكثر من واجهة تفاعل واحدة موجهة للبحث البسيط، وأخرى للبحث المتقدم ، بالإضافة لاختلاف هذه الأدوات في طريقة عرضها للنتائج وحجم ملفات المساعدة وفي طريقة التنظيم المتبع في هذه الملفات.

وبالرغم مما تتميز به محركات البحث إلا أن لها بعض العيوب مثل فهرسة محرك البحث لمعلومة غير متكاملة على الشبكة العنكبوتية وذلك بسبب أن الروبوت الذي يزحف عبر الشبكة ويبحث بداخل المواقع على محتويات جديدة لا يستطيع أن يصل إلى كل المواقع على الإنترنت كل يوم وينتج عن ذلك أن المادة الجديدة عليها أن تنتظر حتى يتم اكتشافها وحتى يقوم الروبوت بزيارتها يومياً.

 

الوقت من ذهب

اذكر الله


المصحف الالكتروني