پیتر اینگورسن یکی از پیشگامان در توسعه و پیشرفت مدل شناختی در بازیابی اطلاعات است ،اگرچه هر کدام از این مدل های تعاملی جدید تفاوت زیادی با مدل های سنتی بازیابی اطلاعات دارند . مدل شناختی به فرایند های مشخص شده ایی متمرکز شده است که در تمام فرایند های بازیابی اطلاعات امکان رخ دادن وجود دارد.
مدل اینگرسون (1996) یک کار ترکیبی از مدل هایی است که وجود دارد او تلاش کرده است مدل بازیابی اطلاعات فرایندی با جنبه جهانی باشد،یک جنبه جهانی برهمه عوامل تاثیر گزارو تعاملی با کاربراست.به طور مثال جستجوی میانجی ،سیستم بازیابی اطلاعات و متن ها ،باید به وسیله جستجوی بازیابی اطلاعات بررسی شوند(رابینسون،2000). شماری از این تعاملات پیچیده مشخص شده ودر تعداد زیادی از جزئیات ساختار بندی شده است .


 

آیا می دانستید 

تعامل با سیستم بازیابی اطلاعات،
با تاکید بر طبیعت تکراری بودن جستجوی اطلاعات،
الگویی نویدبخش برای تحقیقات است.
 

 

مدل های بازیابی اطلاعات در دهه‌های گذشته ، ماهیتی پویا و تعاملی یافته‌اند . مدل سنتی بازیابی اطلاعات به رغم نقاط قوتی که دارد فرایندهای تعامل را در بازیابی اطلاعات منعکس نمی‌کند . به همین سبب ، مدل‌های جدیدی ارائه شده‌اند که هر یک از آنها بازیابی اطلاعات را با تاکید بر ویژگی‌ تعاملی آن از دیدگاه متفاوتی مورد توجه قرار می‌دهند . ربط به عنوان مفهومی کلیدی در بازیابی اطلاعات ، در مدل سنتی ومدل‌های تعاملی به گونه خاصی مورد تفسیر قرار گرفته است.




فرآیند جستجوی اطلاعات، فرآیندی تعاملی است زیرا کاربر بر فرآیند جستجو کنترل دارد و در این مسیر، دست به انتخاب می‌زند.
پرسش کاربر ممکن است در طی این فرآیند با توجه به بازخوردهای حاصل از نتایج بازیابی، یک سیر تکاملی را طی کند. از طرف دیگر، درون نظام بازیابی اطلاعات، فرایندهایی وجود دارند که به‌غیر از کاربر، توسط هیچ‌یک از عناصر این نظام (رایانه، رابط کاربری و ...) تحقق نمی‌یابند.
این مسأله به‌خصوص در مورد "تعامل"، یعنی فرایند اتصال کاربر به سایر عناصر نظام و قضاوت ربط، نمود بیشتری دارد.




فرآیند جست و جو فرآیندی تعاملی است، تعامل به این معناست که کاربر بر فرآیند جستجو کنترل داشته و در این مسیر دست به انتخاب می زند.




هدف از طراحی هر نظام ذخیره و بازیابی اطلاعات ، بازیابی اطلاعات مرتبط است و ارتباط بین طراحی و ارزیابی این نظام هاست و تلاش برای افزایش ربط یعنی "تطابق بین نیاز کاربر و پاسخ نظام های بازیابی " همچنان ادامه دارد.
متخصصان حوزه ی اطلاع رسانی برای سنجش میزان ربط یک سیستم، دو گروه مدل کلی سنتی و مدرن را ارائه کرده اند.




فرآیند جستجوی اطلاعات، فرآیندی تعاملی است زیرا کاربر بر فرآیند جستجو کنترل دارد و در این مسیر، دست به انتخاب می زند.
پرسش کاربر ممکن است در طی این فرآیند با توجه به بازخوردهای حاصل از نتایج بازیابی، یک سیر تکاملی را طی کند.
از طرف دیگر، درون نظام بازیابی اطلاعات، فرایندهایی وجود دارند که به غیر از کاربر، توسط هیچیک از عناصر این نظام (رایانه، رابط کاربری و ...) تحقق نمی یابند.
این مسأله به خصوص در مورد ""تعامل""، یعنی فرایند اتصال کاربر به سایر عناصر نظام و قضاوت ربط، نمود بیشتری دارد.



با وصل شدن دوربین ها به اینترنت اشیاء آنها توانایی مشاهده، آنالیز و ارائه اطلاعات را به صورت همزمان پیدا کرده اند که به این تکنولوژی Intelligent Video Analytics گویند.




کاوش متن، همۀ وابستگی­ها و الگوهای ناشناخته ی استخراج شده ی قدیمی از پایگاه داده ­های بزرگ است
تفاوت این دو سیستم، شبیه تفاوت داده کاوی و مدیریت پایگاه­ هاست.  تفاوت روشنی وجود ندارد. 
بعضی از بازیابی اطلاعات اخیر و سیستم­های پردازش متنی به کشف وابستگی بین کلمات و پاراگراف­ها می­پردازند و بنابراین به عنوان سیستم­های کاوش متن تلقی می­ شوند.
 اجازه دهید که راههایی را برای کاوش متن بسنجیم. 
توجه کنید که خیلی از ابزارها و تکنولوژی­های جاری برای کاوش داده،برای پایگاه داده ­های رابطه ­ای کار می­کنند. 
حتی برای پایگاه داده ­های متمایل به شیئی به ندرت ابزار کاوش داده را برای این نوع داده  دیدیم، در نتیجه ابزارهای کاوش داده رایج نمی­توانند مستقیما برای دادۀ متنی به کار روند.




سیستم ­های بازیابی اطلاعات و پردازش متن بیشتر از یک دهه توسعه پیدا کرده اند، برخی از این سیستم­ها کاملا پیچیده­اند و متون را به وسیلۀ صفحات یا کلمات مخصوصی می­توانند بازیابی کنند،
همچنین
سیستم­های پردازش متنی وجود دارند که وابستگی­ها بین متون را می­توانند بدست آورند. 
بنابراین ما اغلب تفاوت بین سیستم­های بازیابی اطلاعات و سیستم­های کاوش متنی را جویا می­شویم.




در مدل جستجوی : ndexer (بایگانی کننده)
تمام اطلاعات جمع آوری شده توسط اسپایدر در اختیار ایندکسر قرار می گیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار می گیرند و به بخش های متفاوتی تقسیم می شوند. تجزیه و تحلیل بدین معنی است که مشخص می شود اطلاعات از کدام صفحه ارسال شده است، چه حجمی دارد، کلمات موجود در آن کدامند، کلمات چندبار تکرار شده اند، کلمات در کجای صفحه قرار دارند 




در مدل جستجوی : DataBase (پایگاه داده)
تمام داده های تجزیه و تحلیل شده در ایندکسر، به پایگاه داده ارسال می گردد. در این بخش داده ها گروه بندی، کدگذاری و ذخیره می شود. همچنین داده ها قبل از آنکه ذخیره شوند، طبق تکنیکهای خاصی فشرده می شوند تا حجم کمی از پایگاه داده را اشغال کنند. یک موتور جستجوگر باید پایگاده داده عظیمی داشته باشد و به طور مداوم حجم محتوای آنرا گسترش دهد و البته اطلاعات قدیمی را هم به روز رسانی نماید. بزرگی و به روز بودن پایگاه داده یک موتور جستجوگر برای آن امتیاز محسوب می گردد. یکی از تفاوتهای اصلی موتورهای جستجوگر در حجم پایگاه داده آنها و همچنین روش ذخیره سازی داده ها در پایگاه داده است.




در مدل جستجوی Crawler (خزنده) 
کراولر، نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل می کند. آن مشخص می کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم می گیرد که کدام یک از لینک های صفحه ای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممکن است همه آنها را دنبال کند، بعضی ها را دنبال کند و یا هیچ کدام را دنبال نکند. 
کراولر، ممکن است قبلا" برنامه ریزی شده باشد که آدرس های خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آنها دیدن کند. دنبال کردن لینک های یک صفحه به این بستگی دارد که موتور جستجوگر چه حجمی از اطلاعات یک سایت را می تواند (می خواهد) در پایگاه داده اش ذخیره کند. همچنین ممکن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد. 




در مدل جستجوی Spider یا (عنکبوت):

اسپایدر یا روبوت (Robot)،  اسپایدر به صفحات مختلف سر می زند، محتوای آنها را می خواند، لینکها را دنبال می کند، اطلاعات مورد نیاز را جمع آوری می کند و آنرا در اختیار سایر بخش های موتور جستجوگر قرار می دهد. اسپایدر کدهای HTML صفحات را می بیند .
اسپایدر، به هنگام مشاهده صفحات، بر روی سرورها رد پا برجای می گذارد. شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یک سایت و اتفاقات انجام شده در آن را داشته باشید، می توانید مشخص کنید که اسپایدر کدام یک از موتورهای جستجوگر صفحات سایت را مورد بازدید قرار داده است. یکی از فعالیتهای اصلی که در SEM انجام می شود تحلیل آمار همین دید و بازدیدها است. 
اسپایدرها کاربردهای دیگری نیز دارند، به عنوان مثال عده ای از آنها به سایت های مختلف مراجعه می کنند و فقط به بررسی فعال بودن لینک های آنها می پردازند و یا به دنبال آدرس ایمیل (Email) می گردند. 

 



گوگل و هیچ موتور جستجوگر دیگری توانایی انجام این کار را ندارند. همه آنها در زمان پاسخ گویی به جستجوهای کاربران، تنها در پایگاه داده ای که در اختیار دارند به جستجو می پردازند و نه در وب! موتور جستجوگر به کمک بخش های متفاوت خود، اطلاعات مورد نیاز را قبلا” جمع آوری، تجزیه و تحلیل می کند، آنرا در پایگاه داده اش ذخیره می نماید و به هنگام جستجوی کاربر تنها در همین پایگاه داده می گردد. بخش های مجزای یک موتور جستجوگر عبارتند از:


:point_right:Spider
یا عنکبوت

:point_right:Crawler
یا خزنده

:point_right:Indexer
یا بایگانی کننده

:point_right:Database
یا پایگاه داده

:point_right:Ranker
یا سیستم رتبه بندی




وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می شود، کاربران در واقع نتیجه کار بخش های متفاوت موتور جستجوگر را می بینند. موتور جستجوگر قبلا” پایگاه داده اش را آماده کرده است و این گونه نیست که درست در همان لحظه جستجو، تمام وب را بگردد. بسیاری از خود می پرسند که چگونه ممکن است گوگل در کمتر از یک ثانیه تمام سایت های وب را بگردد و میلیون ها صفحه را در نتایج جستجوی خود ارایه کند؟


از منظر هایسلوپ:
چهار عملیات اصلی را برای ذخیره‌سازی اطلاعات و دردسترس قرار دادن آنها، وجود دارد:
ثبت اطلاعات در اسناد
ذخیره‌سازی اطلاعات ثبت‌شده و آیتم‌های مستند
شناسایی آیتم‌هایی که شامل اطلاعات مرتبط با یک مساله، شرایط یا موضوع هستند
بیرون کشیدن آیتم‌های شناسایی‌شده از محل ذخیره شده