решил так (мб кому надо будет)
instance.UseTrafficMonitoring = true;
потом переход на нужный сайт
затем кубик
// Создаём список для хранения всех URL
List<string> urlList = new List<string>();
// Собираем уже собранный трафик из вкладки
var trafficList = instance.ActiveTab.GetTraffic().ToList(); // Преобразуем в список
// Проверяем, есть ли запросы
if (trafficList.Count > 0)
{
foreach (var trafficItem in trafficList)
{
// Проверяем, что URL запроса не пустой
if (!string.IsNullOrEmpty(trafficItem.Url))
{
// Логируем URL
project.SendInfoToLog("URL запроса: " + trafficItem.Url);
// Добавляем URL в список
urlList.Add(trafficItem.Url);
}
}
}
else
{
project.SendInfoToLog("Трафик пуст.");
}
// Логируем количество сохранённых URL
project.SendInfoToLog("Сохранено URL: " + urlList.Count);
// Если нужно вывести все URL в лог
foreach (var url in urlList)
{
project.SendInfoToLog("Сохранённый URL: " + url);
}
// Опционально: сохранить список URL в файл
string filePath = project.Directory + "\\url_list.txt";
System.IO.File.WriteAllLines(filePath, urlList);
project.SendInfoToLog("Список URL сохранён в файл: " + filePath);
все что нужно мне собирает.
также помогла
статья
UPD: если на странице грузятся файлы других сайтов, то мониторинг ломается и выдает 2-3 URL.
Решил кубиком (политика содержимого) разрешив только нужный домен загружать, тогда все норм. ничего не теряется.
И дополнительно сортировку URL (там есть условно гугл аналитика и прочее, просто фильтрую по домену)