Но можно было бы представить себе инструмент, который по запросу юзера проводит пакетную обработку множества сайтов, с вырезанием лишь нужого пользователю контента, и суммирует в некий список или отчет. Внешний вид выхода определяется у пользователя.
Как минимум, инструмент должен собирать источники: делать автоматически серию запросов в поисковики(известно, что при переформулировании фразы, результат поиска может сильно измениться - вот это должно делаться автоматом), а дальше находить нужные ссылки и переходить по ним.
В идеале, этот инструмент должен бы быть довольно умный с распознанием смысла текста, с оцениванием источников, с возможностью умного сбора данных, например в хронологию или статистику.
Вопросы
- есть ли уже такие инструменты, чтоб не изобретать велосипед? Пока что видел только примитивные "копипастные" сайты ( просто на чужое ссылающиеся), или например инструмент гугл аналитикс предлагают сбор статистики но по своему сайту
- будет ли такие функции востребованы у пользователей?
Вот... ожидаю критики, какой я неуч-марксист.