Naukowcy z Centrum Superkomputerowego w San Diego po analizie ruchu w sieci internetowej stwierdzili, że większość czasu (98%) jednego z ich głównych serwerów zajmowały niepotrzebne zapytania. Około 70% zapytań to duplikaty innych zapytań – np. różne osoby szukają tego samego adresu. 12% zapytań dotyczyło dość dziwnych (nie istniejących) domen np.: .elvis, .corp, .localhost. Sporo też zapytań używało adresu w postaci numerycznej!

Stwierdzono, że cały ten ruch mógłby być rozładowany, jeśli dostawcy internetu przetrzymywaliby najczęściej poszukiwane informacje na swoich serwerach. Naukowcy są przekonani, że bałagan ten powstaje w wyniku funkcjonowania źle skonfigurowanych sieci; serwery zezwalają na wysyłanie zapytań, ale nie zwracają odpowiedzi. W ten sposób komputery pytają, pytają i pytają… I potrzeba dopiero Slammera (ostatni robak), żeby zwrócić na to uwagę.

Źródło: BBC News, dział technologii.
Archiwalny news dodany przez użytkownika: donkiszot.
Kliknij tutaj by zobaczyć archiwalne komentarze.

Share →