Интересуюсь вопросом таким, т.к. думаю стоит ли чаще работать через браузер, эмулируя там, например, флеш, WebGL, Fingerprint и всё подобное что, браузер сливает через код, или стоит чаще работать через htttp-клиент и подменять там Useragent (разница в скорости работы через браузер и htttp-клиент в данном вопросе не учитывается).
То есть, если вкратце, легче осудить\заподозрить аккаунт в том, что он робот, если этот аккаунт работает через htttp-клиент, и даже использует прокси, поддельный Useragent, или через браузер, где эмулируется не только Useragent, прокси, но и даже. к примеру, шрифты?
Либо работая только через htttp-клиент, я навлекаю на себя внимание зоркого ока программы, анализирующей трафик и раздающей баны всем не годным аккаунтам, либо админам этих сайтов накладно и недёшево держать такой сниффер, работающий 24\7 у них на сервере и потому есть возможность гонять ботов на htttp-клиенте какое-то время на некоторых сайтах?
Я плохо представляю, как в действительности устроена админов серверов, сайтов, как они следят за безопасностью на них и что там за софт, потому что не занимался никогда такой работой.
Всё что я знаю это то, что из прочитанных статей на зеннолабе. Например знаю, что пишут ботов для накрутки яндекс.метрики покупая пачку хороших проксей, полностью эмулируют параметры браузера для идентификации как бы реального пользователя и есть успехи в том направлении.
Поэтому можно ЛИ предположить, что не каждый сайт за всем следит , как яндекс.метрика, а есть сайты, на которых можно только через htttp-клиент работать, не озабочиваясь полным эмулированием браузера?
То есть, если вкратце, легче осудить\заподозрить аккаунт в том, что он робот, если этот аккаунт работает через htttp-клиент, и даже использует прокси, поддельный Useragent, или через браузер, где эмулируется не только Useragent, прокси, но и даже. к примеру, шрифты?
Либо работая только через htttp-клиент, я навлекаю на себя внимание зоркого ока программы, анализирующей трафик и раздающей баны всем не годным аккаунтам, либо админам этих сайтов накладно и недёшево держать такой сниффер, работающий 24\7 у них на сервере и потому есть возможность гонять ботов на htttp-клиенте какое-то время на некоторых сайтах?
Я плохо представляю, как в действительности устроена админов серверов, сайтов, как они следят за безопасностью на них и что там за софт, потому что не занимался никогда такой работой.
Всё что я знаю это то, что из прочитанных статей на зеннолабе. Например знаю, что пишут ботов для накрутки яндекс.метрики покупая пачку хороших проксей, полностью эмулируют параметры браузера для идентификации как бы реального пользователя и есть успехи в том направлении.
Поэтому можно ЛИ предположить, что не каждый сайт за всем следит , как яндекс.метрика, а есть сайты, на которых можно только через htttp-клиент работать, не озабочиваясь полным эмулированием браузера?