W zeszłym tygodniu Andrew Morton, jeden z głównych programistów pracujących nad kernelem Linuksa, przyznał, że w kernelu jest coraz więcej błędów. „Moim zdaniem kernele 2.6 powoli mają coraz więcej błędów. Wygląda na to, że dodajemy błędy szybciej, niż je usuwamy.” – stwierdził podczas swojego wystąpienia na LinuxTag.
Pojawiła się już odpowiedź Linusa Torvaldsa dotycząca tego tematu. Twórca Linuksa stwierdził, że choć wypowiedź Mortona została przedstawiona przez wiele serwisów w sposób zbyt sensacyjny, jest w niej trochę prawdy. „W ostatnim czasie brakowało nam 'chwili oddechu’ w tworzeniu kernela”,
„Prawdopodobnie skończy się na tym, że taką 'chwilą na odetchnięcie’ stanie się kernel 2.6.16, który stał się podstawą dla większości komercyjnych dystrybucji. Ich twórcy będą dążyli do jego stabilizacji.” Dodał też, że alternatywą jest stanowcze stwierdzenie „koniec z dodawaniem nowych funkcji do 2.6.18” i zmuszenie programistów do zwolnienia prac.
Wypowiedzi te wyraźnie sygnalizują trudności w pogodzeniu dążeń do pogoni za nowościami ze stabilizacją i bezpieczeństwem systemu. Jednak, jak zauważył Torvalds, dobrym pomysłem może być swego rodzaju przerzucenie prac nad stabilizacją na tych, którzy naprawdę jej potrzebują – twórców dystrybucji komercyjnych. W ten sposób autorzy kernela mogą skupić się na nowej funkcjonalności, zaś programiści zatrudniani przez dużych producentów – na stabilności bezpieczeństwie. Złą stroną takiego podejścia jest fakt, że twórcom dystrybucji komercyjnych może bardziej zależeć na stabilności niż na bezpieczeństwie – i ucierpią na tym wszyscy użytkownicy.
Swoją drogą trochę tęsknię do tych czasów, kiedy kernele dzieliły się na stabilne i niestabilne, i te pierwsze były zwykle naprawdę niezawodne.
Archiwalny news dodany przez użytkownika: honey.
Kliknij tutaj by zobaczyć archiwalne komentarze.