Собираем информацию с любого сайта в Excel таблицу без разработки: No-Code парсер за 15 минут
Скидка на все курсы нашей школы loftschool.com/courses-map/?p... по промокоду loftblog-youtube
Ты хочешь спарсить сайт интернет-магазина, проводишь исследование или хочешь просто собрать контакты для холодных продаж? В этом видео я научу тебя собирать данные с сайтов в таблицу без необходимости писать код.
Инструмент, которым ты научишься пользоваться, помогает создать парсер бесплатно и быстро. Для этого абсолюно не нужно обладать специальными навыками, а сделать парсер получится абсолютно без знаний программирования.
Ссылки, которые тебе пригодятся:
Бесплатный скрапер (расширение для Chrome) - t.ly/q-cDt
Набор более подробных обучающих роликов (на английском языке) - t.ly/Y0gs
Статья с одним из примеров, как можно обрабатывать подобные данные - t.ly/iAbW
Пікірлер: 132
Золотье! И не экаешь. Приятно слушать.
Ни фига не понял, но ты молодец! Спокойный уверенный голос, сразу видно человек знает о чем говорит))
Парень, ты просто золотой. Мне поставили задачу собрать данные с двух сайтов, а там позиций больше 2 тысяч. Я уж думал я с ума сойду пока буду этим заниматься. Но твоё видео меня очень выручило!!! Правда у меня возникла одна проблема: текст не копировался как текст, а только как HTML. Чтобы привести это всё к нормальному виду, пришлось посидеть поизучать часик-другой, как работает RegEx. Но спустя это время, я наконец-то получил то, что мне было нужно!!! Без парсинга сидел бы наверное неделю. И самое главное - это бесплатное и абсолютно безопасное приложение! Вообщем, очень выручил. Всё понятно и доходчиво объяснил, спасибо большое)))
@seniorsirius3126
9 ай бұрын
Пожалуста брат!
Ты лучший день убил чтобы научить парсить сайт и не пришёл не к чему а нужно было всего 20 минут на твоё видео потратить огромное спасибо
Спасибо! Наконец нашла нечто понятное и доступное! Буду изучать! 🥰
Спасибо, за обзор! Все доступно, понятно!
Спасибо тебе, добрый человек! Сэкономил время и нервы) Огромное спасибо!
Обзор просто Супер! Четко, ясно, по существу. Спасибо.
Автор золотой человек! Просто Золотище) И обьясняет хорошо и говорит приятно! СПАСИБО!
😊❤❤❤ Спасибо за отоичный урок! Благодаря вашему видео за полчаса собрала нужные данные.
Респект парень! Помог!
Спасибо большое! Редко пишу отзывы, но вы круто все объяснили. Сухо и по делу. Очень полезно! Все работает, протестил
Спасибо. То что нужно. Все вечером попробую
Спасибо! Классный урок!🎉🎉
Огромное спасибо за это видео... вы, можно сказать, жизнь мне спасли)))))
Огромное спасибо за ролик!
Молодец мужик, спасибо большое, очень помог. Успехов во всех начинаниях !
Супер, спасибо 🙏
Супер! огромная Вам благодарность, подписываюсь.
Спасибо за данное видео.
Вот жешь... За полезности рабочие и применяемые - и подписываюсь
Уважаемый Дмитрий, этому ролику уже почти год! Но на сколько же он нужный и актуальный даже сейчас! Спасибо Тебе большое! Мне как воздух была важна эта информация! Дай Бог Тебе здоровья крепкого и любовницу красивую и порядочную! Спасибо!!!!!
благодарю, все четко
Это шедеееевр!
Спасибо!
Огромнейшее спасибо. Сначала пропустил момент, что надо провалится в созданный линк и там уже делать подразделы парсинга. Всё работает в марте 2024г😄😄😄😄😵💫
@user-xx1vt7xv5y
Ай бұрын
Блин я тоже это пропустил и не понимал почему не работает всё как надо
Видео просто супер
Классная штука, спасибо что поделились
Спасибо большое!
Просто красавчик 😘
Здоровья тебе
Димон, спс. Зачётный видос!
Всё работает! ты сделал мой день :) 😆🐹
МОЛОДЕЦ !!!! 👍👍👍👍👍👍👍👍👍👍👍👍👍👍
Пока не разбирался но тоже спасибо напишу так как видно что это вполне рабочий инструмент!
Спасибо ❤
Спасибо Бро!!!
Фига, круто)
БЛАГОДАРЮ ❤🌷 ты спас меня😅
Спасибо!!!!
Спасибо😊
Как вы прекрасно выглялите
это интересно
Спасибо)
Супер, спасибо. Подскажите пожалуйста как можно сделать сбор данных с одной и той же страницы при ее обновлении, необходимое мне количество раз. Парсинг с этой страницы я настроил, но на самой странице сайта нет кнопки ее обновления и получается, что данные которые парсятся генерируются только при обновлении этой страницы путем нажатия на кнопку "обновить страницу" в самом браузере, а вот варианта сделать это на самой страницы сайта к сожалению нет. Заранее спасибо за ответ
все цены будут обновляться в таблице иксель автоматически?
просто топ!!!!
Большое спасибо за видео. Подскажите, столкнулся с тем что страница сайта, откуда надо скачать данные, большая и много данных которые прогружаются с прокруткой. Как это можно настроить? потому что следуя по видео получается собрать данные только по тем компаниям которые не требуют дополнительной прокрутки вниз на странице.
у меня на сайте допустим много данных и я использую multiple чтобы разбить по строкам и столбцам, но они разбиваются не так как я хотел, если убрать по всем multiple но остаются только одни значения, а их у меня 5 строк и 10 столбцов
Благодарю! Подскажи как установить автообновление допустим в задержку 24ч?
Оч полезно, открыл для себя - парсинг, предстоит еще изучить. А можно по названию нужных мне товаров настроить парсер? чтобы он из моего списка брал названия и искал и собирал данные на сайтах нескольких?
спасибо большоее
Здравствуйте! Спасибо за контент. Вы занимаетесь разработкой проекта? За оплату конечно. Нужно вытащить в excel заказы выданные на маркетплейсе Казахстана каспи
Вроде в метаданных сайтмэпа можно писать в конце сылки к примеру =[1-7] , но зависит от сайта конечно. Это касаемо пагинациию. Но объясняешь прикольно
спасибо братух, очень полязная инфа! Мне предстояло сделать интернет-магазин. Естественно нужны фотографии товара. А где их взять? У конкурентов. Большее тысячи позиций товара я намеревался копировать и вставлять вручную в exel. Если бы не алгоритмы ютуба так бы и занимался сизофовым трудом
есть инфа как сделать автоматический парсинг? чтобы не заходить на сайт и не скачивать данные
Супер! А этой штукой можно грузить свои файлы в инет? Например: есть сайт с кнопкой "загрузить файл/реестр". У меня есть папка с этими файлами. Эта прога сможет их загрузить? Спасибо!
а можно ли сделать так, чтобы данные с сайта автоматически обновлялись и в твоей таблице?
Все круто, но парсит не все товары, так как товары отображаются по мере скролла, можно это как-то доделать? (Пытался парсить габариты товаров с сайта лента онлайн)
Здравствуйте! А если линки на карточках товара динамические (при наведении на объект) что делать? не получается сайтмап тогда сделать
Спасибо за отличное видео и доступное изложение. Правильно ли я понял, что описанным способом парсится информация только с одной страницы сайта? А как быть, если страниц много? Например, несколько категорий товаров, у каждой есть подкатегории.
@emmanlux4534
10 ай бұрын
Нет, послушайте до конца, он красавчик, всё подробно объяснил и в том числе про пагинацию. Можно под себя подстроить все
да автор золото!) куда донатить )
Очень здорово! Спасибо! Скажите, картинку тоже можно загрузить? и читаю что таблица сама обновляется если сайт будет обновляться это действительно так?
@Xakwinrus
10 ай бұрын
пробовал, получается почему то одну только картинку
Круть
А как двигаться по различным категориям каталога сайта? только вручную каждую категорию вбивать каждый раз селекторы? или есть способ попроще?
Спасибо за метериал! Почему-то скачивает только 10 строчек. В превью отбирается более 80, а вготовый файл собирает только 10.
автор, тебе нужно преподавать! :-)
Подскажи плиз, каким образом можно собрать ссылки на фотки товара в одну ячейку, а не в разные? Когда они в разных, так вроде не получится импортировать в вукомерс
Боженька
Пожалуйста подскажите, а если хочется также собирать данные только с другой страницы на этом же сайте.
Бро, расскажи как ограничить количество страниц которые пагинатор должен отработать? Например я хочу только первые 50 страниц отпарсить?
а есль нужно искать по URL шаблоннго типа а не весь сайт как сделать ?
А в гугл таблицы можно напрямую выгружать спарсенные данные?
Ты золото, и я тебя нашел
есть инфа как сделать автоматический парсинг? то есть включить его в тг бот указывая ссылку чтобы не заходить на сайт и не скачивать данные
Благодарю! Там где другие парсеры не работают, этот способ прошел на ура. только осталась проблема - не забирает картинки, хотя ссылки на картинки рабочие Еще есть вопрос. Если у товара несколько картинок. Как их забрать все с размещением в карточке одного товара?
А возможно ли сделать так,чтоб с сайта за 24 часа до начала футбольного матча,снималась иныормация?
Классный инструмент
@cybersystem5137
Жыл бұрын
жаль, что бесполезный почти.
@Skretch1174
Жыл бұрын
@@cybersystem5137 А какой полезен? С чем сравниваете? 😊
@cybersystem5137
Жыл бұрын
@@Skretch1174 с нормальным парсером.
@gdifs7782
4 ай бұрын
Поделишься нормальным?
Очень полезное видео, спасибо. НО. Я выбираю на сайте банкиру кучу отзывов (около 500) и они видны в дата ревью, но после скрэйпа выдает всего лишь 25 отзывов. Как это исправить? Имеется ввиду линки на отзывы, так как на странице со всеми отзывами отзыв показан не полностью.
Добрый день. Нужна услуга по парсингу телефонов с сайта. Можете помочь?
Скажите, возможно ли этим парсером решить следующую задачу: есть сайт с 1 млн товаров, моя задача найти по названиям 2000 товаров и забрать цену. адреса страниц не известны, известны назввния товаров. может ли скрапер в строку поиска по сайту подтянуть название из заранее созданного списка? и на следующем этапе сайт отдает либо страницу с результатами (когда 2 и больше товаров полностью содержат запрос) или перенаправляет на страницу, которая единственная отвечает на запрос. Возможно ли разделение алгоритма действий, в зависимости от полученного ответа сайта?
Всё круто но с картинками проблема, одну парсит а если они в галереи (три шт например) нифига не получается
Аякс сайты тоже парсит?
Попробовал на Фикс-прайсе, так-то, вроде, тянет, но у некоторых позиций - пустые цены (( Странно...
Подскажите, а что делать, если на первом селекторе, ссылка открывает новую вкладку, из-за чего парсер выдает ошибку
огромное спасибо! Если нет плагиатора страниц 1-2-3.. а нужно скролить? как его научить?
@antwandenison6916
6 ай бұрын
Внимательно пересмотрите, он в конце ролика про скроллинг рассказывает
А если нет строки Selector graph ? не могу понять почему нет
А как сделать несколько категорий, подкатегорий... Жутко интересно. Или под каждую настраивать карту? Да, это будет немного быстрее чем я в ручную забью.
как собирать e-mail адреса с сайтов ?
Братан, ты супер крутой, я тебя люблю.
Как сделать что бы спарсеные данные выгружались в документ без ссылок, короче без первых двух столбцов?
а как быть, если при нажатии "refresh" никаких данных не появляется?
@ugownqvckflq8829
Жыл бұрын
значит ошибка в парсинге, нужно переделывать структуру парсера
он капчу умеет обходить? мне надо собрать 180 страниц, но сайт через страницу требует ввести капчу и всё останавливается
А как собирать вариативность?
Братан как с карт собрать инфу с привязкой к координатам???
Большое спасибо за видео. Я столько нового для себя открыл и все это очень упростило мне работу. Я пару дней дрочился с ручной сборкой информации. Стал искать как это упростить и наткнулся на твое видео. Все очень понятно даже человеку с уровнем владения ПК выше среднего. Есть пара вопросов: а если цен несколько как спарсить самую низкую из них?
Подскажите, парсите базу данных авито?
@easyparsing
2 ай бұрын
Мы парсим. Обращайтесь. Будем рады)
Как парсить тултипы?
Дядька - с выходом чат гпт, даже если у тебя 3.5 бесплатная - ты уже мамкин програмист-парсерист))) Спокойно весь код пишет, не с первой попытки но пишет, а главное под любую задачу.)))
ладно фиг с ней с селект граф и без нее получилось а как вот выбирать для парсинга звезды рейтинга? у меня ничем они не захватываютсЯ(
@user-js3tt4cj6l
Ай бұрын
хотя и тут нашла костыль