Новый алгоритм метапоиска оставит с носом и Google, и Yahoo
Представьте себе, что можно было бы задать в поисковой строке вопрос: «Кто снимался в фильме «Касабланка»?» и получить лаконичный ответ: «Хамфри Богарт и Ингрид Бергман». Не впечатляет? А если бы вопрос был несколько сложнее: «Что думают россияне о политике Евросоюза?» — и в качестве ответа появился бы полный отчет о самых популярных в сети мнениях?
Ученый по имени Weiyi Meng, профессор университетов Бингемтона и Нью-Йорка, уверен, что современные поисковые машины должны уметь не только проводить опрос сетевого контента, но и отличать правду от вымысла среди всего многообразия представленных материалов. Профессор уверен, что крупные поисковые системы, такие как Google и Yahoo, некорректны в самой своей основе. По сути, Интернет можно поделить на две области: поверхностный Web и глубокий Web. Объем первого составляет 60 миллиардов страниц, в то время как объем второго достигает отметки в 900 миллиардов страниц — то есть в 15 раз больше.
Сканирующая система Google в настоящий момент работает примерно с 20 миллиардами страниц, и увеличение этого числа ограничивается только наличием ссылок на те или иные материалы. А страницы, на которые не ведет ни одна ссылка, зачастую скрываются от индексации. Тем временем профессор Weiyi Meng совместно со специалистами университетов Иллинойса и Луизианы приступил к работе над алгоритмом мета-поиска, который позволит преодолеть все эти недостатки существующих технологий и обеспечит более полные и точные результаты поиска.
Ученый по имени Weiyi Meng, профессор университетов Бингемтона и Нью-Йорка, уверен, что современные поисковые машины должны уметь не только проводить опрос сетевого контента, но и отличать правду от вымысла среди всего многообразия представленных материалов. Профессор уверен, что крупные поисковые системы, такие как Google и Yahoo, некорректны в самой своей основе. По сути, Интернет можно поделить на две области: поверхностный Web и глубокий Web. Объем первого составляет 60 миллиардов страниц, в то время как объем второго достигает отметки в 900 миллиардов страниц — то есть в 15 раз больше.
Сканирующая система Google в настоящий момент работает примерно с 20 миллиардами страниц, и увеличение этого числа ограничивается только наличием ссылок на те или иные материалы. А страницы, на которые не ведет ни одна ссылка, зачастую скрываются от индексации. Тем временем профессор Weiyi Meng совместно со специалистами университетов Иллинойса и Луизианы приступил к работе над алгоритмом мета-поиска, который позволит преодолеть все эти недостатки существующих технологий и обеспечит более полные и точные результаты поиска.
Ещё новости по теме:
18:20