Salam dostlar )
Php-də file_get_contents() funksiyası ilə və yaxud Linuxda Terminalda sudo curl əmri ilə və yaxud oxşar yollarla saytın contentin əldə etdikdə saytın trafikinnən gedir yoxsa yox?
Mənə saytda indiyə qədər işlənmiş bütün url-ləri götürmək lazımdır belə fikirləşmişəm ki saytın axırında ola biləcək bütün halları yoxlayıb mövcud olanları bazaya əlavə edim məsələn cavablar.net/a, cavablar.net/b və s. bu cürə yoxlanışlar aparmaq istəyirəm. 26 hərfi əlavə də rəqəmləri və başqa simvolları yoxlamaq üçün hardasa 40^40-a yaxın üsul var. Yəni hər yoxlama trafik aparsa deyirəm sayt çöküb elyər ) Ümumiyyətlə bu üsul yaxşıdır yoxsa deyil? Və başqa hansı üsullardan istifadə etmək olar bunun üçün?
Öncədən təşəkkürlər )
Verilmiş cavablar və yazılan şərhlər (5 cavab var)
2
Salam. Əlbəttə trafikdən gedir.
Çünki sizin yazacağınız proqram internetə girir.
file_get_contents() funksiyası ilə hansısa URL-i əldə edəcəksinizsə, əlbəttə ki PHP bunu internet olmasa edə bilməzdi) Uzun sözün qısası, nə edirsinizsə edin trafikdən gedir. Fərqi yoxdur lap command kimi edin, lap PHP-də edin, lap pythonda edin.
PHP-də file_get_contents() yerinə curl istifadə etsəniz daha tez nəticələri əldə edəcəksiniz!
0
Təşəkkürlə! Onda bizim iş batdı 🙂
2
Çox pis üsuldur, DDOS effekti verə bilər və sizin İP avtomatik bloka düşər.
Hər hansı veb saytı grab etmək üçün hazır website grabber proqramları var, linkdən linkə tullanaraq saytın bütün xəritəsini çözür və saytı grab edir nə varsa hamsını html kimi götürür.
0
Salam ) cavablandıra bilərsiz ki DDOS,grap,trafik nədir?? Cavablandirsaz çox sevinərəm bu sahədə təzəyəm daha çox wordpressdə isləyirəm hazır temalarla PHPnı da öyrənmək istəyirəm ona görə cavablandırsaniz cox sevinərəm
0
Salam. Sualı ayrıca yerləşdirmək lazımdır saytda, bu sualın mövzusu o deyil deyə
Sual verin
Cavab verin