Przejdź do zawartości

Wikipedysta:Konrad921021/brudnopis

Z Wikipedii, wolnej encyklopedii

[ [maɪkɹoʊsɑːft ˈwɪndoʊz] ]«[ [maɪkɹoʊsɑːft ˈwɪndoʊz] ]» Konrad921021superkomputer

grid computing” oznacza przetwarzanie danych

Natomiast koncepcja grid computing widziana od strony usługodawcy oznacza alokację zasobów, współużytkowanie informacji oraz konieczność zapewnienia wysokiej dostępności. CPU SETI@home (ang. Search for Extra-Terrestrial Intelligence)

Zasoby

[edytuj | edytuj kod]

geograficzne heterogeniczne sprzętowo i programowo (różne warstwy, protokoły komunikacyjne, topologie)

Technologie programowe

[edytuj | edytuj kod]

Najbardziej znane realizacje koncepcji gridu to Legion i Globus Toolkit.

Architektura i implementacja sieci GRID

[edytuj | edytuj kod]
Lp. Warstwy Modelu OSI Warstwy Modelu GRID
1. Fizyczna IP
2. Łącza danych TCP
3. Sieci HTTP
4. Transportowa SOAP
5. Sesji WS-RF
6. Prezentacji oprogramowanie pośredniczące
7. Aplikacji Grid Apps

Sieć komputerowa klastra

Topologia gwiazdy

Topologia gwiazdy (ang. star topology)

Podstawowe informacje o działaniu w Wikipedii

[edytuj | edytuj kod]

Jeśli chcesz włączyć się do tworzenia Wikipedii, przeczytaj…

… jak tworzyć artykuły?
Przygodę z Wikipedią najlepiej rozpocząć od nauki podstaw formatowania oraz edytowania (pisania) haseł w swoim brudnopisie. Jeśli jednak czujesz się na siłach, to przeczytaj najpierw strony pomocy dotyczące tworzenia artykułów: ogólne wskazówki → Jak napisać nowy artykuł oraz szczegółowe → Jak napisać doskonały artykuł.
… jakie mamy zasady tworzenia artykułów?
Zanim jednak zaczniesz edytować artykuły, poświęć nieco czasu na zapoznanie się z wypracowanymi przez nas zasadami:
Należy pamiętać, że odrębne artykuły można tworzyć dla istotnych tematów (→ zobacz wytyczne dotyczące encyklopedyczności).
Wikipedię można edytować na dwa sposoby. Edytor wizualny jest prostszym, bardziej intuicyjnym narzędziem. Z kolei edytor kodu źródłowego daje dostęp do bardziej zaawansowanych funkcji. Można łatwo przełączać się między nimi. Najłatwiej jest nauczyć się edytowania w praktyce, dlatego też po wykonaniu wybranym sposobem kilku edycji testowych w swoim brudnopisie, śmiało edytuj strony!
… gdzie szukać pomocy?
W naszych szeregach mamy przewodników, którzy pomogą Ci w Twoich pierwszych edycjach. Wikipedyści odpowiedzą na pytania dotyczące edytowania Wikipedii. Możesz zadać je tutaj.
Jeżeli chcesz samodzielnie szukać stron pomocy, zacznij od tej strony (znajdziesz ją zawsze w menu po lewej: „Dla wikipedystów” ⇒ „Pomoc”). Możesz też ustawić własne preferencje m.in. dotyczące wyglądu stron i ułatwień w edytowaniu (tu kilka słów wyjaśnienia).
Zachęcamy także do dołączenia na nasz serwer Discord, gdzie każdą pomoc otrzymasz w błyskawicznym tempie.
… jak się komunikować?
Komunikując się na stronach dyskusji, ale nie w artykułach, podpisujemy się poprzez wpisanie czterech tyld (~~~~). Po zapisaniu strony w miejsce tyld pokaże się Twój podpis: nick z datą edycji (tak jak mój na dole). Chcąc skontaktować się z innym wikipedystą, wpisz się na jego stronie dyskusji. Wtedy otrzyma on komunikat o wiadomości (taki jak Ty przed chwilą) i będzie mógł Ci odpowiedzieć. Powiadomienie o wiadomości zostanie mu wysłane także wtedy, jeśli pisząc w innym miejscu niż jego strona dyskusji (np. na stronie dyskusji artykułu lub w Kawiarence), użyjesz szablonu {{re|nick}}, w miejscu "nick" wpisując jego nazwę użytkownika. Pozwala to na wygodne prowadzenie dyskusji w jednym miejscu.
Jeśli chcesz, napisz coś o sobie na swojej stronie użytkownika.

Zobacz też: Żargon wikipedystówTablica ogłoszeńPraca w wikiprojektach

16:34, 14 sty 2024 (CET)

Elita – kategoria osób znajdujących się najwyżej w hierarchii społecznej, pod jakimś względem wyróżnionych z ogółu społeczeństwa. Elity mają często zasadniczy wpływ na władzę oraz na kształtowanie się postaw i idei w społeczeństwie.

Wśród socjologów nie ma zgody co do tego, czy elita jest grupą społeczną. Współczesne podejścia skłaniają się raczej ku stanowisku, że elicie brak takich cech grupy jak wewnętrzna organizacja, odrębność czy więź. Elitą są więc różnorodne zbiory utworzone przez ludzi wyróżniających się w rozmaitych dziedzinach.

W XVIII wieku terminem „elita” określano dobra szczególnej jakości.

Tworzenie się WŁASNYCH elit

[edytuj | edytuj kod]

Janusz Sztumski wyróżnił kilka mechanizmów konfigurowania się elit:

  • ex domini gratia: elitarna grupa włącza w swój obręb kolejną jednostkę w drodze nadania jej jakiejś godności,
  • ex signi: łączenie się w grupę osób dziedziczących godności lub tytuły rodowe, tzw. elita herbowa,
  • ex auctoritate: łączenie się w grupę osób o dużym zakresie władzy lub szczególnych kompetencjach merytorycznych,
  • ex virtute: wyłanianie się poprzez powszechne uznanie rzeczywistych cnót posiadanych przez dane osoby,
  • ex aliquae causa: na podstawie dowolnych, zróżnicowanych przyczyn, np. wyjątkowo cenionego wykształcenia, sukcesów sportowych, osiągnięć artystycznych i innych[1].

Rodzaje elit

[edytuj | edytuj kod]

W społeczeństwie można wskazać na wiele rodzajów elit, opierając się na różnych kryteriach ich wyróżniania.

Ze względu na podstawę wyróżniania

[edytuj | edytuj kod]

Próbę uporządkowania sposobów wyróżniania elit można znaleźć w pracy polskiego filozofa i socjologa Czesława Znamierowskiego[2]. Wskazuje on, że sposoby te są niejednorodne i historycznie zmienne. Podstawą wyróżniania elit mogą być zarówno kryteria obiektywne (na przykład pozycja w strukturze społecznej) jak i subiektywne (opinie różnych grup społecznych). Kryteria te mogą dotyczyć:

  • cech ciała i umysłu jednostek, takich jak kondycja fizyczna, odwaga czy inteligencja (elita walorów); tego rodzaju elitą jest merytokracja;
  • wielkości i rodzaju majątku posiadanego przez jednostki (elita posiadania);
  • stosunku jednostki do innych jednostek; najczęstszą tego rodzaju elitą jest elita rodowa, do której przynależność zależy od „dobrego urodzenia”, czyli bycia potomkiem członków elity, a inną tego rodzaju elitą jest elita ustosunkowanych, czyli osób pozostających w dobrych stosunkach z osobami wybitnymi;
  • ról pełnionych przez daną jednostkę; role takie uznawane za szczególnie cenne dla danej społeczności, na przykład politycy, urzędnicy, lekarze, prawnicy, naukowcy, wojskowi (elity funkcji);
  • wybitnych zasług wobec społeczności (elita zasług).

Ze względu na obszar wyróżniania

[edytuj | edytuj kod]

Tworzenie się elit jest zjawiskiem powszechnym i obserwowanym we wszystkich zbiorowościach społecznych. W zależności od tego, jaki obszar życia społecznego rozpatrujemy, możemy wskazać odpowiadającą mu elitę. Można więc mówić o elitach gospodarczych czy politycznych; o elitach wojskowych, akademickich, kultury; elicie zakładu pracy czy stowarzyszenia. Kultura tworzona dla elit nazywana jest kulturą elitarną.

Pozostaje przedmiotem sporu, czy w społeczeństwach istnieje jedna hierarchia społeczna, a tym samym jedna ogólna elita, czy też mamy do czynienia z mozaiką różnych hierarchii, nie dających się w prosty sposób uporządkować. Tym samym osoba należąca do jednego rodzaju elity niekoniecznie musiałaby być wyróżniona na innym gruncie społecznym.

Znamierowski wskazuje, że obok wielu elit ograniczonych do własnego obszaru działania (takich jak armia, zakład pracy, partia), istnieje również elita godności, czyli zbiorowość ludzi wyróżnionych przez ogół społeczeństwa. To ta elita ma szczególną skłonność do podkreślania swojej społecznej wyjątkowości (godności) i odgradzania się od reszty społeczeństwa.

Charles Wright Mills w swojej książce o elicie władzy wskazuje, że w USA istnieje elita władzy oparta o świat armii, wielkich korporacji oraz polityki, które nazywa on wielką trójką. Wykazuje on, że między tymi trzema sferami bez przerwy następuje przepływ (wysocy oficerowie obejmują ważne stanowiska polityczne, politycy po zakończeniu kadencji obejmują funkcje w organach spółek kapitałowych, z kolei bogacze świata korporacji często obejmują stanowiska polityczne). Jednocześnie zauważa, że owa elita wykazuje tendencje do ograniczania dopływu ludzi nowych. Najważniejsze stanowiska są w znacznym stopniu zarezerwowane dla dzieci potentatów, którzy zapewniają im właściwą edukację i odpowiednie kontakty.

Zamykanie się elit

[edytuj | edytuj kod]

Jedną z głównych cech elit jest ekskluzywizm, czyli skłonność do odgraniczania się od społeczeństwa i ograniczania dostępu do elity. Osoby należące do elity starają się też podkreślić swoją wyższość i odrębność poprzez propagowaną ideologię i styl życia. Podkreślanie wyższości ma często postać elitaryzmu czyli poglądu, że sądy i działania jednostek należących do elity są bardziej wartościowe, a one same są legitymowane do sprawowania władzy. Elity które zinstytucjonalizowały swoją odrębną pozycję wobec reszty społeczeństwa Znamierowski nazywa elitami kastowymi.

W zależności od stosunku elit do reszty społeczeństwa, Znamierowski wyróżnia elity pasożytnicze (dbające jedynie o swoje dobro i pozycję) oraz elity rycerskie (dbające o dobro reszty społeczeństwa). Zwykle elementy pasożytniczy i rycerski są przemieszane. Im bardziej elita jest kastowa i pasożytnicza, tym bardziej jest obca społeczeństwu i podatna na degenerację.

Teoria elit

[edytuj | edytuj kod]
 Osobny artykuł: Teoria elit.

Wielu socjologów i politologów i filozofów zajmowało się rolą, powstawaniem i funkcjonowaniem elit w społeczeństwie. Prace te zaliczane są do nurtu teorii elit. Najbardziej znanymi teoretykami elit są Vilfredo Pareto, Gaetano Mosca, Robert Michels czy C. Wright Mills. Wyróżniali oni różne rodzaje elit, choć ich uwaga koncentrowała się przede wszystkim na elicie władzy i jej wpływowi na politykę.

Zobacz też

[edytuj | edytuj kod]

Przypisy

[edytuj | edytuj kod]
  1. Kazimierz Pająk, Samorząd terytorialny a rozwój lokalny w Polsce w procesie transformacji, Holding Edukacyjny - Paweł Pietrzyk, Pozxnań, 2001, s. 60, ISBN 83-88544-26-8
  2. Czesław Znamierowski: Elita i demokracja. W: Elita, ustrój, demokracja. Warszawa: Aletheia, 2001. ISBN 83-87045-85-3.

Bibliografia

[edytuj | edytuj kod]
  • Czesław Znamierowski: Elita i demokracja. W: Elita, ustrój, demokracja. Warszawa: Aletheia, 2001. ISBN 83-87045-85-3.


Kategoria:Makrosocjologia





Arkana Wielkie (łac. arcana – wtajemniczenie, wiedza tajemna) – grupa kart talii tarota. Autorem terminu arkana wielkie jest Jean-Baptiste Pitois, który posłużył się nim do opisania tej grupy kart w książce pt. Historie de la Magie, du monde Surnaturel et de la fatalité a travers les Temps et les Peuples (wyd. 1870)[1].

Arkana Wielkie jako zbiór archetypów

[edytuj | edytuj kod]

Arkana Wielkie mogą być interpretowane jako zbiór 22 archetypowych sytuacji, postaci i ról, jakich doświadczają ludzie w swojej życiowej wędrówce, której celem, jak twierdzą ezoterycy i mistycy, jest oświecenie duszy. Na początku tej drogi znajduje się arkan Głupiec, a na końcu arkan Świat. Zobacz też: archetyp w psychologii.

Porównanie numeracji Wielkich Arkanów w niektórych taliach

[edytuj | edytuj kod]
Numer karty w danej talii
Karta A B C Thoth Tarot
(tarot A. Crowleya)
Grand Etteilla ou Tarots Egyptiens (tarot Etteilli; wyd. Grimaud 1998[a])
[4][5]
Głupiec bn bn 78 oraz 0 (↑FolieEgarement; ↑Szaleństwo ↓Zagubienie)
Kuglarz (Mag) 1 1 1 1 15 (↑ChagrinsMaladie; ↑Zmartwienia ↓Choroba)
Papieżyca (Kapłanka) 2 2 2 2 8 (↑TénacitéProgrés; ↑Nieustępliwość ↓Postęp)
Cesarzowa 3 3 3 3 7 (↑AppuiProtection; ↑Podpora ↓Opieka)
Cesarz 4 4 4 4 6 (↑SecretsVérités; ↑Tajniki ↓Prawdy)
Papież (Kapłan) 5 5 5 5 1 (↑IdéalSagesse; ↑Ideał ↓Mądrość)
Kochankowie 6 6 6 6 13 (↑MarriageLiaison; ↑Małżeństwo ↓Związek/Romans)
Rydwan 7 8 7 7 21 (↑ProcèsLitige; ↑Proces sądowy ↓Spór sądowy)
Sprawiedliwość[b] 8 7 11 8 (Adjustment; Rozsądzenie) 9 (↑JusticeLegislateur; ↑Sprawiedliwość ↓Prawodawca)
Eremita (Starzec) 9 11 9 9 18 (↑TrahisonFausseté; ↑Zdrada ↓Fałsz)
Koło Fortuny 10 10 10 10 20 (↑FortuneAugmentation; ↑Fortuna/Los ↓Przyrost)
Siła (Moc)[b] 11 9 8 11 (Lust; Żądza) 11 (↑ForcePouvoir; ↑Siła ↓Moc)
Wisielec 12 12 12 12 12 (↑PrudencePopularité; ↑Roztropność[b] ↓Popularność)
Śmierć 13 13 13 13 17 (↑DécèsIncapacité; ↑Śmierć ↓Nieudolność)
Powściągliwość[b] 14 14 14 14 (Art; Sztuka) 10 (↑Tempérance; ↓Convictions; ↑Powściągliwość ↓Przekonania)
Diabeł 15 15 15 15 14 (↑ViolenceFaiblesse; ↑Przemoc ↓Słabość)
Wieża, Dom Boga, Błyskawica 16 16 16 16 19 (↑MisèrePrison; ↑Nędza ↓Więzienie)
Gwiazda 17 17 17 17 4 (↑Révélation; ↓Manière d'être ↑Objawienie/Olśnienie ↓Zachowanie/Sposób bycia)
Księżyc 18 18 18 18 3 (↑Discussion; ↓Instabilité; ↑Dyskusja/Rozważanie ↓Niestabilność/Zmienność)
Słońce 19 19 19 19 2 (↑ÉclaircissementPassion; ↑Objaśnienie/Oświecenie; ↓Namiętność/Zamiłowanie)
Sąd Ostateczny 20 20 20 20 (The Æon; Wieczność) 16 (↑OpinionArbitrage; ↑Opinia ↓Arbitraż)
Świat 21 21 21 21 5 (↑VoyageBiens Ruraux; ↑Podróż ↓Dobra ziemskie)

Galeria

[edytuj | edytuj kod]

Tarot marsylski

[edytuj | edytuj kod]

Tarot flamandzki

[edytuj | edytuj kod]

Tarot Szwajcarski (fragment)

[edytuj | edytuj kod]

Karty Minchiate

[edytuj | edytuj kod]

Tarot sycylijski

[edytuj | edytuj kod]
Tarot Sycylijski
Tarot Sycylijski
Lp. Nazwa
Nędzarz
1 Kuglarz czyli Papież
2 Cesarzowa
3 Cesarz
4 Stałość
5 Umiarkowanie
6 Siła
7 Sprawiedliwość
8 Kochankowie
9 Rydwan
10 Koło Fortuny
11 Wisielec
12 Pustelnik
13 Śmierć
14 Statek
15 Wieża
16 Gwiazda
17 Księżyc
18 Słońce
19 Atlas
20 Zeus
Głupiec

Tarot boloński

[edytuj | edytuj kod]
Tarot Boloński
Tarot Boloński
Lp. Nazwa
Joker Czarny
Joker Czerwony
Głupiec
Kuglarz czyli Papież
Maur z Niebieską Włócznią
Maur z Czerwoną Włócznią
Maur z Czerwoną Włócznią
Maur z Trzema Strzałami
5 Kochankowie
6 Rydwan
7 Umiarkowanie
8 Sprawiedliwość
9 Siła
10 Koło Fortuny
11 Pustelnik
12 Wisielec
13 Śmierć
14 Diabeł
15 Wieża
16 Gwiazda
Księżyc
Słońce
Świat
Anioł
  1. Podana jest data wydania, ponieważ poszczególne edycje tarota Etteilli, nawet tego samego wydawcy, różnią się od siebie.
  2. a b c d Cnota kardynalna.

Przypisy

[edytuj | edytuj kod]
  1. Ronald Decker, Thierry Depaulis, and Michael Dummett. A Wicked Pack of Cards. The Origins of the Occult Tarot. New York. St. Martin’s Press, 1996.
  2. JC Flornoy: The Tarot of Jean Noblet: Major Arcana. [dostęp 2012-05-17]. (ang.).
  3. Michele Jackson: Tarot Jacques Vieville. Tarot Passages. [dostęp 2012-05-17]. (ang.).
  4. Browse Tarot Decks and Tarot Cards: Etteilla. Tarot.com. [dostęp 2012-05-17]. (ang.).
  5. No.394 104 „Grand Etteilla” d01612. WWPCM: World Web Playing Card Museum. [dostęp 2012-05-18]. (ang.).

Linki zewnętrzne

[edytuj | edytuj kod]



Kategoria:Tarot . Odświeżanie – liczba wykonanych przez monitor wyświetleń w czasie sekundy. Wartość ta jest częściowo związana z pojęciem FPS (ang. frame per second – liczba klatek na sekundę). Dla wyświetlanego obrazu, który ma być interpretowany przez ludzkie oko jako ciągły, wymagane jest odświeżanie częstsze niż 16 Hz (16 FPS) – poniżej tej wartości człowiek będzie postrzegał film jako ciąg klatek, nie zaś jako ruchomy obraz.

Ekrany CRT

[edytuj | edytuj kod]
Fotografia przedstawiająca wiązkę elektronów tworzących obraz

W przypadku klasycznych kineskopowych monitorów, obraz rysowany jest przez wiązkę elektronów, która uderza w powierzchnię ekranu pokrytą luminoforem, co wywołuje jego świecenie. Obraz tworzony jest poziomymi liniami od lewego górnego rogu. Najpierw rysowane są wszystkie linie nieparzyste (pierwszy półobraz), a następnie pomiędzy nieparzyste wrysowywane są linie parzyste (drugi półobraz) co pozwala przy przesyłaniu 25 klatek na sekundę uzyskać odświeżanie 50 Hz.

Ekrany LCD

[edytuj | edytuj kod]

W monitorach LCD nie można przyjąć jednoznacznej definicji odświeżania z uwagi na to, że piksele mogą być sterowane w grupach (STN) lub niezależnie (TFT). Ogólnie przyjmuje się, że jest to czas reakcji matrycy na zmianę pojedynczej komórki obrazu (piksela), powiększony o zjawisko opóźnienia wyświetlania (tzw. opóźnienie wejścia).

Określanie częstotliwości odświeżania ma sens dla monitorów LCD wykorzystywanych w telewizorach 3D, które naprzemiennie wyświetlają obraz dla prawego i lewego oka. Odświeżanie 200 Hz oznacza, że obraz dla każdego oka wyświetlany jest 100 razy w ciągu sekundy.


Kategoria:Urządzenia wyświetlające obraz


Linux
Logo Linux
Logo programu
Producent

Linus Torvalds wraz ze społecznością

Pierwsze wydanie

(0.02) 5 października 1991; ponad 33 lat temu[1]

Jądro

monolityczne

Licencja

GNU GPLv2

Strona internetowa
Wszechobecność jądra Linux

Jądro Linux (ang. Linux kernel) – jedna z części uniksopodobnych systemów operacyjnych. Jest wolnym oprogramowaniem napisanym przez Linusa Torvaldsa w 1991 roku, a obecnie rozwijane przez wielu programistów z całego świata w ramach The Linux Foundation[2].

Początkowo Linux działał na platformie Intel 80386, później został przeniesiony także na wiele innych platform. Największa część kodu napisana jest w języku C, z pewnymi rozszerzeniami GCC, a pozostała część to wstawki w asemblerze.

Kod jądra Linux jest objęty licencją GNU General Public License, jest zatem oprogramowaniem FLOSS.

Architektura

[edytuj | edytuj kod]

Jądro Linux jest w dużym stopniu zgodne ze standardami ANSI i POSIX, obsługuje wielozadaniowość, wielowątkowość, wielobieżność, pamięć wirtualną, biblioteki współdzielone, ładowanie na żądanie, współdzielony kod wykonywalny (ang. copy-on-write), dobre zarządzanie pamięcią i obsługę sieci TCP/IP. Jest ono jądrem monolitycznym z ładowalnymi modułami. Sterowniki urządzeń i rozszerzenia jądra zwykle pracują w trybie ring 0(inne języki), z pełnym dostępem do sprzętu; nieliczne jednak działają w trybie użytkownika. W przeciwieństwie do typowych jąder monolitycznych, sterowniki urządzeń są zwykle kompilowane jako moduły, które można załadować i wyładować na działającym systemie. Podobnie, sterowniki mogą być wywłaszczone w określonych warunkach. Ta funkcja została dodana w celu poprawnej obsługi przerwań sprzętowych i systemów wieloprocesorowych.

Fakt, że Linux jest zbudowany na zasadzie jądra monolitycznego, a nie mikrojądra był powodem słynnej dyskusji między Linusem Torvaldsem a Andrew S. Tanenbaumem (autorem Miniksa) na grupie comp.os.minix w 1992 roku.

Uruchamiane oprogramowanie

[edytuj | edytuj kod]

Linux potrafi uruchamiać programy w formatach a.out oraz ELF. Dzięki zaznaczeniu przy kompilacji opcji Kernel support for MISC binaries może również uruchamiać inne programy, np. napisane w Javie poprzez maszynę wirtualną albo przeznaczone dla MS-DOS lub MS Windows poprzez emulatory.

Licencja

[edytuj | edytuj kod]

Początkowo Torvalds udostępnił Linuksa na licencji zabraniającej użycia komercyjnego. Szybko jednak została ona zmieniona na GPL (w wersji drugiej). Licencja zezwala na rozpowszechnianie i sprzedaż oryginalnych bądź zmodyfikowanych kopii jądra, ale wymaga zachowania tej licencji dla kolejnych kopii oraz udostępnienia kodu źródłowego.

Linus Torvalds określił wybór GPL jako licencji dla jądra Linux jako „najlepszą rzecz, jaką kiedykolwiek zrobiłem”.

Jedno z najczęstszych pytań dotyczących licencji GPL dla Linuksa dotyczy kwestii traktowania modułów jądra w prawie autorskim jako „dzieł pochodnych”, które w myśl licencji GPL powinny być objęte tą samą licencją. Torvalds przedstawił swoje zdanie, że programy które używają jedynie ograniczonego, „publicznego” zestawu interfejsów jądra nie muszą być „dziełami pochodnymi”, zezwalając na tworzenie niezgodnych z GPL, dostępnych jedynie w binarnej (wykonywalnej) formie sterowników i innych modułów. Nie wszyscy twórcy jądra zgadzają się z tą interpretacją, niemniej nawet sam Torvalds zaznacza, że wiele modułów należy uznać za dzieła pochodne. Uważa również, że „moduły są domyślnie dziełami pochodnymi”; ostatecznie wyjaśnienie tej kwestii może nastąpić na drodze prawnej.

Kernel panic

[edytuj | edytuj kod]
 Osobny artykuł: Kernel panic.

W Linuksie pojęcie „Kernel panic” (pol. panika jądra lub popłoch jądra) oznacza nieodwracalny błąd systemowy wykryty przez jądro, w przeciwieństwie do podobnych błędów wykrytych w przestrzeni użytkownika. Istnieje możliwość wywołania tego błędu na żądanie za pomocą funkcji panic zdefiniowanej w pliku nagłówkowym sys/system.h. Niemniej, większość błędów jest efektem nieobsługiwanych w kodzie jądra wyjątków procesora, jak np. odwołania do nieprawidłowych adresów w pamięci. Zwykle oznaczają one błąd gdzieś w łańcuchu wywołań prowadzących do paniki.

Historia

[edytuj | edytuj kod]

Jako datę powstania jądra przyjmuje się 25 sierpnia 1991 (22:57 UTC+2), czyli moment, w którym Linus Torvalds wysłał list na grupę dyskusyjną comp.os.minix rozpoczynający się słowami:

„Właśnie piszę (wolny) system operacyjny (dla zabawy, nie będzie wielki i profesjonalny jak gnu) dla klonów AT 386(486)…”[3]

Pierwsze efekty jego pracy można było zobaczyć już 5 października 1991, kiedy to opublikował swój kod, zaczynając wiadomość tak:

„Czy tęsknicie za pięknymi czasami miniksa-1.1, kiedy mężczyźni byli mężczyznami i pisali swoje własne sterowniki? [...]”[1]

W owym czasie projekt GNU stworzył wiele komponentów niezbędnych dla wolnego systemu operacyjnego, ale jądro GNU Hurd nie było gotowe. Z kolei projekt BSD jeszcze nie udostępnił swojego systemu operacyjnego z uwagi na problemy prawne. Dzięki temu pojawiła się luka, którą mogło zapełnić jądro Linux. Mimo ograniczonej funkcjonalności wczesnych wersji, projekt błyskawicznie przyciągnął pierwszych programistów i użytkowników. Początkowo rozwojem i dostarczaniem pomysłów zajmowali się hakerzy Miniksa; dzisiaj swój kod udostępnia tysiące programistów. W październiku 2008 długość kodu jądra Linux przekroczyła 10 mln wierszy[4].

Pierwotnie nazwa „Linux” dotyczyła tylko jądra. Termin „jądro” oznacza niskopoziomowe oprogramowanie systemowe, którego funkcją jest podstawowa obsługa sprzętu, dysków i systemu plików, wielozadaniowości, równoważenia obciążenia, sieci oraz zabezpieczeń. Jądro nie jest kompletnym systemem operacyjnym (w typowym rozumieniu tego pojęcia). Pełny system zbudowany z użyciem jądra Linux najczęściej nazywany jest systemem operacyjnym Linux, chociaż niektórzy wolą nazywać go GNU/Linux, gdyż projekt GNU stworzył bardzo wiele programów, które zwykle są instalowane wraz z jądrem Linux w ramach tzw. dystrybucji Linuksa. System operacyjny jest często mylony z samym jądrem, co prowadzi do nieprawdziwych wniosków, np. że Linus Torvalds pisze lub koordynuje inne części systemu poza jądrem.

Wersje

[edytuj | edytuj kod]

Linus Torvalds nadal koordynuje wydawanie nowych wersji jądra, konsolidując poprawki napisane przez innych programistów i dodając własne zmiany. Wydania jądra z parzystym drugorzędnym numerem wersji należą do serii stabilnych wydań: 1.0.x, 1.2.x, 2.0.x, 2.2.x, 2.4.x, 2.6.x i 3.0.x; wydania z nieparzystym drugorzędnym numerem wersji, np. seria 2.5.x, nazywane są rozwojowymi i nie są zalecane do celów produkcyjnych. Podczas gdy Torvalds zajmuje się najnowszymi wersjami rozwojowymi, starszymi „stabilnymi” opiekują się inni programiści: David Weinehall (2.0), Alan Cox i później Marc-Christian Petersen (2.2), Marcelo Tosatti (2.4) oraz Andrew Morton (2.6). Poza powyższymi „oficjalnymi” wersjami można też znaleźć wiele innych źródeł pełnego drzewa jądra z nieoficjalnymi poprawkami. Dystrybutorzy systemów operacyjnych zwykle utrzymują własne wersje jądra, np. dodając sterowniki do urządzeń, które nie zostały z różnych powodów włączone do oficjalnego drzewa. Równoległe, nieoficjalne gałęzie, np. 2.4 Alana Coksa lub Andrei Arcangelego oznaczane są poprzez dodanie odpowiedniej końcówki: -ac dla jąder Alana Coksa, -aa dla jąder Andrei itd.

Po każdej serii stabilnej (a właściwie już w jej trakcie) rozpoczynana jest seria rozwojowa, w której jest miejsce na eksperymenty, przebudowy itd. Z tego powodu wersje rozwojowe nie nadają się do poważnego użytkowania, często nawet nie mogą zostać skompilowane. Po jakimś czasie seria rozwojowa „dojrzewa” i staje się pierwszą wersją nowej serii stabilnej, a poprzednia stabilna seria wchodzi w stan „spoczynku”, kiedy wprowadzane są praktycznie tylko poprawki bezpieczeństwa oraz z rzadka porty fragmentów kodu z nowszych serii (np. sterowników urządzeń).

Oznaczenie typu 2.4.18-rc1, to tzw. wydanie kandydujące (ang. release candidate), czyli „kandydat” do bycia nową wersją stabilną, o ile nie zostaną w nim znalezione poważniejsze błędy. Gdy ich nie ma, to (w teorii) nowa wersja rozwojowa nie będzie się niczym różniła (oprócz samej nazwy) od powstałej na jej podstawie wersji stabilnej. Jeśli się znajdą, zostają one poprawione, w wyniku czego powstaje nowa wersja „kandydująca” i cykl się powtarza. Wersje „-rc” pojawiają się z reguły już po kilku wersjach „-pre”. Do używania „wersji kandydujących” zobowiązał się obecny opiekun linii 2.4, Marcelo Tosatti.

Zmiany w serii 2.6

[edytuj | edytuj kod]

W serii 2.6 Linus w porozumieniu z jej opiekunem, Andrew Mortonem, wprowadzają model nawet dużych, choć stopniowo wprowadzanych modyfikacji, jeszcze w ramach wersji stabilnej. Zmiany zaakceptowane przez Torvaldsa po okresie niezbędnych testów są włączane do głównej gałęzi nadzorowanej przez Mortona.

Ponieważ ten model pracy sprawdza się, jak dotąd nie uznali za konieczne utworzenia gałęzi 2.7. Argumentem na rzecz takiego trybu rozwoju jest fakt, że faktyczna stabilizacja jądra dla końcowych użytkowników od dłuższego czasu odbywa się i tak w ramach poszczególnych dystrybucji.

Od wersji 2.6.11 zaczęto wydawać wersje 2.6.11.x, zawierające mniejsze poprawki. Taki tryb pracy wprowadza na nowo stabilną wersję jądra dla użytkowników niezadowolonych z eksperymentalnego charakteru głównej linii rozwojowej.

W okresie gdy zmiany w kodzie jądra przechowywane były w repozytorium BitKeeper, na stronach projektu znaleźć można było również wersje oznaczane jako np. 2.6.11-rc1-bk8. Były to tak zwane snapshoty, zawierające kod wprowadzony w czasie, który minął od wydania wersji (w tym wypadku) 2.6.11-rc1. Tworzone były automatycznie w formie patchy, które można nałożyć na kod jądra.

Na początku roku 2005 ze względów licencyjnych został porzucony system kontroli wersji BitKeeper na rzecz napisanego przez Linusa Git. Od tego czasu snapshoty mają przyrostek „-git” (zamiast „-bk”). Snapshoty obecnie są wykonywane dwa razy dziennie (o godzinie siódmej i dziewiętnastej).

Wprowadzona 18 czerwca 2005 wersja 2.6.12 przyniosła obsługę iSCSI. W następnej wersji zaimplementowano system inotify.

Dla wersji 2.6.16 z 2006 ogłoszono długoterminowe wsparcie ze strony Adriana Bunka.

Pierwsza wydana w 2007 roku i dłużej oczekiwana „pełna” wersja – 2.6.20 – poświęcona została tropieniu i eliminacji błędów i stabilizacji jądra.

W przypadku wersji jądra 2.6.29 wydanej w 2009 roku, tymczasowo zmieniono logo Tuxa na Tuza w ramach akcji ratowania diabłów tasmańskich[5][6].

Ostatnim jądrem serii 2.6 było 2.6.39.

Seria 3.0

[edytuj | edytuj kod]

Seria 3.0 została rozpoczęta oficjalnym wydaniem jądra 3.0.0 w dniu 22 lipca 2011. Zgodnie ze schematem nazewnictwa jest to kontynuacja stabilnej gałęzi 2.6.x, a przyczyną zmiany numeracji przez Linusa jest uproszczenie, gdyż, jak sam przyznał, gubi się w liczbach.

Zmiana z 2.6 na 3.0 sama w sobie nie niesie przełomowych zmian, których można by się spodziewać z takiego skoku wersji i zawiera przewidywalną ilość zmian i nowości[7].

Wydania stabilne

[edytuj | edytuj kod]
  • wersja 1.0 (14 marca 1994) działała tylko na jednoprocesorowych komputerach i386. Znalazła się w nim implementacja protokołów internetowych zapożyczona z systemu BSD, dołączono też nowy system plików ext, który usuwał wiele niedogodności z systemu plików Minix.
  • wersja 1.2 (6 marca 1995) dodała obsługę dla architektur Alpha, SPARC i MIPS. Dodano możliwość korzystania z nowej szyny PCI oraz zwiększono liczbę obsługiwanych urządzeń.
  • wersja 2.0 (8 czerwca 1996) dodała obsługę więcej niż jednego procesora (SMP), jednak brakowało w nim obsługi wielobieżności. Wprowadzono obsługę platformy m68k. Znacząco zwiększono też wydajność stosu TCP/IP, wprowadzono obsługę protokołów Appletalk, amatorskich sieci radiowych AX.25 oraz standardu ISDN. Dodano także możliwość montowania sieciowych systemów plików NetWare oraz SMB.
  • wersja 2.2 (25 stycznia 1999) przynosi obsługę kolejnych architektur sprzętowych (ARM, IBM S/390 oraz Sparc64). Przepisano też obsługę protokołu TCP/IP oraz wprowadzono możliwość zaawansowanego trasowania.
  • wersja 2.4 (4 stycznia 2001) obsługuje ISA Plug-And-Play, architekturę HP PA-RISC, USB i PC Card. Usunięto ograniczenia poprzednich wersji systemu: pojawiła się pełna 64-bitowość i rozmiar pliku > 2 GB. Ulepszono obsługę szybkich dysków ATA66 i SCSI, obsługa złączy FireWire oraz kamer cyfrowych. Dodano możliwość korzystania z DevFS i XFS. Do jądra wprowadzono także prosty serwer HTTP (kHTTPd) oraz obsługę LVM (łączenie kilku dysków twardych w jedną wirtualną partycję). Później dodano również obsługę procesorów o ograniczonym zestawie rozkazów ETRAX CRIS firmy Axis Communications i systemu plików InterMezzo.
  • wersja 2.6 (17 grudnia 2003)
  • wersja 3.0 (22 lipca 2011)
    • Automatyczna defragmentacja, „scrubbing” – sprawdzanie integralności danych, poprawa wydajności tworzenia plików i katalogów
    • wywołanie systemowe sendmmsg() – grupowanie wywołań sendmsg()
    • Włącznie przez Linusa wsparcia XEN dom0
    • Cleancache
    • Berkeley Packet Filter just-in-time filtering
    • wsparcie dla Wake on WLAN
    • umożliwienie nieuprzywilejowanego wysyłania i odbierania komunikatów ICMP_ECHO messages – prototyp tej zmiany był opracowany w czasach jądra 2.4 – pozwala np. na stworzenie odpowiednika polecenia ping nie posiadającego setuid.
    • lepsza obsługa przestrzeni nazw w wywołaniu systemowym setns()
    • Alarm-timers – służące do wybudzania systemu z trybu suspend za pomocą RTC jak tylko wygaśnie najwcześniejszy alarm-timer.
  • wersja 4.0 (29 kwietnia 2015)
    • Obsługa DisplayPort
    • Poprawiono zarządzanie wentylatorami
    • Poprawiono stabilność
  • wersja 5.0 (3 marca 2019)
    • Optymalizacja dla słabszych i bardziej energooszczędnych maszyn
    • Obsługa szyfrowania Adiantum
    • Pełna obsługa AMD FreeSync

Przenośność

[edytuj | edytuj kod]

Choć początkowo nie projektowany jako system przenośny, Linux należy obecnie do systemów dostępnych na bardzo szeroką gamę architektur (podobnie jak NetBSD), działając na zróżnicowanych systemach od iPAQa (palmtop) do IBM S/390 (wielki, bardzo drogi mainframe). Linux jest wykorzystywany na węzłach wejścia-wyjścia IBM Blue Gene, a jego architektura inspirowała twórców systemu obsługującego węzły obliczeniowe[8].

Warto też zauważyć, że wysiłki Linusa w zakresie przenośności zmierzały też w innym kierunku. Według niego, przenośność oznacza również łatwość skompilowania różnych aplikacji na danym systemie. W pewnej mierze wpłynęło to na popularność Linuksa, ponieważ nie wymagał on dużego wysiłku do skompilowania znanych programów objętych licencją GPL czy innych z dostępnym kodem źródłowym.

Linux działa obecnie na następujących architekturach sprzętowych:

Dzięki wirtualnemu systemowi plików (ang. VFS) obsługuje blisko 50 systemów plików, m.in.:

Przypisy

[edytuj | edytuj kod]

Bibliografia

[edytuj | edytuj kod]

Linki zewnętrzne

[edytuj | edytuj kod]

Kategoria:Wolne oprogramowanie napisane w C

Szablon:Pracować

Topologia rozgałęzionej gwiazdy

Topologia rozgałęzionej gwiazdy (ang. extended star topology) oparta jest na topologii gwiazdy. W tej topologii każde z urządzeń końcowych działa jako urządzenie centralne dla własnej topologii gwiazdy. Poszczególne gwiazdy połączone są ze sobą przy użyciu koncentratorów lub przełączników. Jest to topologia o charakterze hierarchicznym i może być konfigurowana w taki sposób, aby ruch pozostawał lokalny.

Topologia ta stosowana jest głównie w przypadku rozbudowanych sieci lokalnych, gdy obszar, który ma być pokryty siecią, jest większy niż pozwala na to topologia gwiazdy, np. w wypadku dużych instytucji.

Zalety

[edytuj | edytuj kod]
  • pozwala na stosowanie krótszych przewodów
  • ogranicza liczbę urządzeń, które muszą być podłączone z centralnym węzłem
  • duży koszt urządzeń

Kategoria:Topologia sieci komputerowych

Szablon:Pracować

Topologia hierarchiczna
Topologia drzewa

Topologia hierarchiczna, topologia drzewa, topologia rozproszonej gwiazdy (ang. hierarchical topology, tree topology, star-bus topology) – jest kombinacją topologii gwiazdy i magistrali, może być także postrzegana jako zbiór sieci w topologii gwiazdy połączonych magistralami w strukturę hierarchiczną (drzewiastą).

Zasada jej budowy polega na dublowaniu poszczególnych magistral. Początkową pierwszą magistralę dołącza się do koncentratora, dzieląc ją na dwie lub więcej magistral przy użyciu przewodów koncentrycznych – w ten sposób powstają kolejne magistrale. Proces dzielenia można kontynuować, tworząc dodatkowe magistrale wychodzące z magistral odchodzących od pierwszej magistrali, co nadaje topologii cechy topologii gwiazdy. Jeśli jedną magistralę podzieli się na trzy magistrale i każdą z nich na kolejne trzy to w efekcie łącznie otrzyma się trzynaście magistral. Tak tworzone są kolejne poziomy drzewa, ale ich liczba jest ograniczona. Na końcu takiego drzewa zawsze znajdują się pojedyncze terminale (urządzenia).

Zalety

[edytuj | edytuj kod]
  • łatwa konfiguracja
  • sieć zazwyczaj nie jest czuła na uszkodzenie danego węzła czy kabla
  • łatwa rozbudowa sieci komputerowej poprzez dodawanie kolejnych rozgałęzień
  • duża liczba przewodów
  • trudności w odnajdywaniu błędów

Kategoria:Topologia sieci komputerowych Rozsądek, zdrowy rozsądek (w różnych znaczeniach: nowołac. sensus communis, ang. common sense, niem. Verstand) – pojęcie pojawiające się w filozofii współczesnej, zwłaszcza w wielu prądach brytyjskiej filozofii analitycznej, wyprowadzone z dawniejszej koncepcji sensus communis („zmysłu wspólnego”).

Terminy „rozsądek” i „zdrowy rozsądek”

[edytuj | edytuj kod]

Terminy „rozsądek” i „zdrowy rozsądek” zazwyczaj są używane zamiennie, nie w pełni jednak się pokrywają. Rozgraniczenia znaczeniowe są przy tym dość płynne. Termin „zdrowy rozsądek” stosuje się zazwyczaj dla pojęć rozsądku zbliżonych do koncepcji Moore'a, koncepcji filozofii szkockiej czy też do koncepcji Kartezjusza. Pozbawiony dodatkowych określeń termin „rozsądek” albo pokrywa się ze znaczeniem terminu „zdrowy rozsądek”, przy czym odnosi się wtedy zwłaszcza do rozumień tego terminu bliskich koncepcji Moore'a, lub też odnosi się koncepcji Kantowskiej.

Sensus communis i tradycja kartezjańska

[edytuj | edytuj kod]

W dawniejszym znaczeniu, pojawiającym się np. w myśli Kartezjusza, sensus communis to specjalna władza umysłu, dzięki której materiał dostarczany mu przez poszczególne zmysły jawi mu się jako jednolity.

Przedmiotami zmysłu wspólnego są więc wspólne jakości zmysłowe, mogące być przedmiotem postrzeżeń różnych zmysłów, takie jak ruch czy rozciągłość.

W późniejszych czasach termin sensus communis zmienił znaczenie, zaczął być rozumiany jako zdolność wydawania trzeźwych sądów, nie wypaczonych ani przez nadmierne teoretyzowanie, ani przez nadmierny sceptycyzm. Pochodzi ono zresztą z koncepcji wcześniejszej, jako że daje się w niej zauważyć przekonanie, że pewne pojęcia i sama umiejętność rozumowania są właściwe wszystkim ludziom: Kartezjusz uważał, że rozum jest najrówniej rozdzieloną ze wszystkich cech ludzkich.

Dla Kartezjusza „rozsądek” (bon sens) jest równoważnikiem specyficznie rozumianego rozumu. Rozum pojmuje Kartezjusz jako właściwą wszystkim ludziom i przysługującą im w tym samym stopniu zdolność odróżniania prawdy od fałszu. Myśl tę filozof przedstawił w sławnym fragmencie rozpoczynającym Rozprawę o metodzie:

Rozsądek jest to rzecz ze wszystkich na świecie najlepiej rozdzielona, każdy bowiem sądzi, że jest w nią tak dobrze zaopatrzony, iż nawet ci, których we wszystkim innym najtrudniej jest zadowolić, nie zwykli pragnąć go więcej, niźli posiadają. Nie jest prawdopodobne, aby się wszyscy mylili co do tego; raczej świadczy to, iż zdolność dobrego sądzenia i rozróżniania prawdy od fałszu, co nazywamy właśnie rozsądkiem lub rozumem, jest z natury równa u wszystkich ludzi. Tak więc rozbieżność mniemań nie pochodzi stąd, aby jedni byli roztropniejsi od drugich, ale jedynie stąd, iż prowadzimy myśli nasze rozmaitymi drogami i nie rozważamy tych samych rzeczy. Nie dosyć bowiem mieć umysł bystry, ale główna rzecz jest właściwie go stosować. Największe dusze zdolne są do największych występków zarówno jak do największych cnót; a ci, którzy idą jedynie bardzo wolno, jeśli trzymają się wciąż prostej drogi, mogą posunąć się o wiele dalej niż ci, którzy biegną, lecz oddalają się od niej. [tł. Tadeusz Boy-Żeleński]

Tradycja szkocka

[edytuj | edytuj kod]

Późniejsze rozumienie pojęcia rozsądku pojawiło się już w myśli Locke'a. Rozpowszechniła się w tzw. „filozofii zdrowego rozsądku”, wpływowym nurcie filozofii szkockiej końca XVIII wieku, którego głównym reprezentantem był Thomas Reid. W przeciwieństwie do Locke'a, filozofowie szkoccy całkowicie odrzucili sceptycyzm, przyjęli zaś stanowisko tzw. realizmu naiwnego, które uzasadniali na drodze introspekcji. W filozofii szkockiej zdrowy rozsądek to ogół opinii, które narzucają się każdemu umysłowi. Opinie te narzucają się jednak nie ze względu na ich jawną oczywistość, ale ze względu na uwarunkowania ludzkiej natury narzucone jej przez ślepe instynkty, uczucia i intuicje pozaracjonalne.

Tradycja analityczna

[edytuj | edytuj kod]

W XX wieku pojęcie zdrowego rozsądku zyskało nowe znaczenie na skutek wystąpienia Moore'a (Defence of Common Sense). Moore uważał, że gdy filozofia popada w konflikt ze zdrowym rozsądkiem, błąd w argumentacji filozoficznej jest bardziej prawdopodobny, niż błąd zdrowego rozsądku. Zdrowy rozsądek jest więc dla Moore'a punktem wyjścia budowy i oceny poglądów filozoficznych, a jako że jest on punktem wyjścia wszelkich badań, wszelkie odstępstwa od zdrowego rozsądku muszą być szczególnie mocno uzasadnione. Sam zdrowy rozsądek to właściwa ludziom zdolność przyswajania sobie wiadomości niezbędnych do życia, głównie poprzez poznanie przednaukowe. Składają się prawdy oczywiste same przez się, zdobywane poprzez normalne, niezaburzone funkcjonowanie rozumu.

W koncepcji Moore'a szczególnie istotny jest jego sposób podejścia do stawiania i rozwiązywania problemów filozoficznych. Moore nie był zainteresowany odkrywaniem nowych prawd czy też oceną wartości przekonań zdroworozsądkowych. Interesował się natomiast znaczeniem terminów poszczególnych wyrażeń, a punktem wyjścia takich analiz muszą być te wyrażenia, co do których wiemy, że rzeczywiście je rozumiemy, a więc przeświadczenia oparte na zdrowym rozsądku. Za podstawowe zadanie filozofii uznawał więc uporządkowanie i dokładną analizę pojęć zdroworozsądkowych. Błędem filozofów, którzy oddalają się od przekonań zdroworozsądkowych jest to, że oddalają się oni od terminologii języka potocznego: taka terminologia, która nie daje się przełożyć na język potoczny jest niezrozumiała.

Moore twierdził, że o każdym przekonaniu zdroworozsądkowym wie, że jest ono prawdziwe. Zadaniem filozofii i nauk nie jest wychodzenie poza te przekonania, ale uzasadnianie tej wiedzy: należy bowiem odróżnić wiedzę o prawdziwości przekonań od ich uzasadnienia, którego dostarczają dopiero nauki.

Tradycja kantowska

[edytuj | edytuj kod]

Odmienne znaczenie termin „rozsądek” (w tłumaczeniu Romana Ingardena „intelekt”, niem. Verstand) przybrał w filozofii Immanuela Kanta. Intelekt jest umiejętnością rozumowania na podstawie danych doświadczenia i kategorii apriorycznych, zdolnością tworzenia pojęć na podstawie danych zmysłowych. Kant odróżnia go od rozumu (Vernunft), podejmującego zagadnienia metafizyczne i wychodzącego poza granice doświadczenia. Rozsądek spaja różnorodne doświadczenia za pomocą odpowiadających zasadom czystego doświadczenia kategorii apriorycznych. Kantowskie rozumienie rozsądku nabrało szczególnie dużego znaczenia w idealizmie niemieckim.

Zbliżone terminy w obcych terminologiach filozoficznych

[edytuj | edytuj kod]

W tradycji greckiej trudno doszukać się ścisłego odpowiednika pojęcia rozsądku, zbliżony charakter ma pojęcie phronesis, stanowiące także odpowiednik specyficznie rozumianej roztropności.

Zbliżonymi odpowiednikami łacińskimi są prudentia (roztropność), ewentualnie mens sana czy też sensus sanus. Nowołaciński termin intellectio może oznaczać rozsądek, intelekcję lub rozumienie. Nowołaciński sensus communis może odnosić się do koncepcji zmysłu wspólnego, może też oznaczać rozsądek w sensie Moorowskim.

Ogólnymi odpowiednikami angielskimi są judgment i sense, przy czym sense może być kojarzony z rozumieniem Moorowskim. Good sense może być rozumiany w znaczeniu Moorowskim lub Kartezjańskim. Common sense odnosi się w szczególności do poglądów szkoły szkockiej.

Odpowiednikami francuskimi mogą być raison (rozum), sens, jugement. Kartezjański termin bon sens może oznaczać także rozsądek w znaczeniu Moore'a, sens commun może mieć odcień rozumienia rozsądku typowego dla szkoły szkockiej.

Niemiecki termin Verstand jest Kantowski. Znaczeniu Moorowskiemu lub Kartezjańskiemu odpowiada gesunder Verstand lub gesunder Menschenverstand. Terminy Gemeinsinn, gemeiner Verstand i einfacher Verstand odpowiadają natomiast rozumieniu rozsądku typowemu dla szkoły szkockiej.

Bibliografia

[edytuj | edytuj kod]
  • Michał Hempoliński, Brytyjska filozofia analityczna, Wiedza Powszechna, seria „Myśli i Ludzie”, Warszawa 1974
  • Antoni Podsiad, Słownik terminów i pojęć filozoficznych, Instytut Wydawniczy Pax, Warszawa 2000


Kategoria:Filozofia analityczna Kategoria:Filozofia anglojęzyczna Kategoria:Epistemologia

Topologia siatki (ang. mesh topology) – jedna z fizycznych topologii sieci komputerowych charakteryzująca się tym, iż jej węzły łączą się bezpośrednio, dynamicznie i niehierarchicznie z jak największą liczbą innych węzłów i współpracują ze sobą w celu efektywnego trasowania danych. Sieć w topologii mesh pozwala na dynamiczne samoorganizowanie się i samokonfigurowanie, co może zmniejszyć koszty instalacji. Topologia ta jest używana wtedy, gdy niezbędne jest zapewnienie wysokiej przepustowości, wysokiego bezpieczeństwa oraz wyeliminowanie kolizji sieciowych. Im bardziej te cechy są pożądane, tym sieć posiada więcej połączeń pomiędzy węzłami.

Istnieją dwa typy topologii siatki:

  • pełna siatka (ang. full mesh) – każdy węzeł sieci ma fizyczne połączenie z każdym innym węzłem w danej sieci,
  • siatka nie-pełna (ang. partial mesh) – węzły mają różną liczbę połączeń sieciowych do innych węzłów.

Internet oparty jest na topologii siatki częściowej – możliwe jest dotarcie bardzo dużą liczbą różnych ścieżek z jednego węzła do drugiego. W praktyce stworzenie dużej sieci opartej na pełnej siatce jest niewykonalne, gdyż liczba połączeń rośnie kwadratowo wraz z dołączaniem kolejnych węzłów sieci.

Ze względu na zastosowane medium transmisyjne, sieci mesh można podzielić na przewodowe i bezprzewodowe. W przypadku sieci bezprzewodowych wyróżnić można trzy generacje:

  1. siatka współdzielona z pojedynczym kanałem transmisji (ang. single radio shared mesh) – połączenia tworzące siatkę (ang. backhaul) i połączenia urządzeń końcowych współdzielą jedno pasmo transmisyjne,
  2. siatka współdzielona z podwójnym kanałem transmisji (ang. dual radio shared mesh) – połączenia tworzące siatkę współdzielą jedno pasmo transmisyjne, a połączenia urządzeń końcowych korzystają z drugiego pasma,
  3. siatka przełączana, siatka komutowana (ang. switched mesh) – każde połączenie tworzące siatkę korzysta z oddzielnego kanału transmisyjnego, a połączenia urządzeń końcowych korzystają z innego pasma.

Pierwsze dwie generacje siatki bezprzewodowej mocno ograniczają przepustowość całej sieci i wprowadzają znaczne opóźnienia w transmisji danych, natomiast trzecia generacja siatki charakteryzuje się znacznie większą przepustowością i niskimi opóźnieniami, dlatego przeznaczona jest do wymagających zastosowań takich jak przesyłanie głosu lub wideo.

Zalety

[edytuj | edytuj kod]
  • wysoka niezawodność
  • brak kolizji w przypadku siatki pełnej; ograniczona liczba kolizji w przypadku siatki częściowej
  • uszkodzony węzeł nie wpływa na pracę sieci w przypadku siatki pełnej; ma ograniczony wpływ w przypadku siatki częściowej
  • przesył danych realizowany jest wieloma ścieżkami – wykorzystując algorytm taki jak Shortest Path Bridging (SPB; IEEE 802.1aq)
  • wysoki koszt
  • skomplikowana budowa


Kategoria:Architektura Internetu Kategoria:Topologia sieci komputerowych


Przepustowość, pojemność kanału – rzeczywista szerokość pasma zmierzona o określonej porze dnia przy użyciu określonych tras sieciowych i podczas transmisji siecią określonych zbiorów danych[1].

Pojęcie to jest często stosowane jako synonim maksymalnej ilości informacji, jaka może być przesyłana przez dany kanał komunikacyjny w jednostce czasu. Czasami używane jest określenie „szybkość” (na przykład sieci komputerowej), które jest błędne, ponieważ przepustowość dotyczy liczby transmitowanych bitów, a nie zmiany fizycznego położenia jakiegoś obiektu, w jednostce czasu.

Przepustowość mierzona jest w bitach na sekundę (b/s lub bps, od ang. bits per second) lub, rzadko, w bajtach na sekundę (B/s lub Bps) i ich wielokrotnościach: kb/s, Mb/s, Gb/s, kB/s, MB/s. W praktyce spotykane są zarówno prefiksy dziesiętne (k = 1000, M = 1 000 000), jak i binarne (K = 1024, M = 1 048 576).

Ze względu na tę samą jednostkę przepustowość często mylnie utożsamia się z przepływnością. Ta druga jest miarą chwilowego natężenia strumienia danych, natomiast ta pierwsza stałym parametrem toru lub kanału telekomunikacyjnego.

Wyznaczanie pojemności kanału

[edytuj | edytuj kod]

Graniczną pojemność kanału wylicza się na podstawie twierdzenia Shannona:

gdzie:

– szerokość pasma podawana w [Hz],
– stosunek mocy sygnału do szumu (obie wartości podawane w skali liniowej).

Zobacz też

[edytuj | edytuj kod]

Przypisy

[edytuj | edytuj kod]
  1. Artur Sierszeń, Łukasz Sturgulewski: Projektowanie i Realizacja Sieci Komputerowych. Wykład 4. 2009-10-12. [dostęp 2015-07-22].

Kategoria:Parametry transmisji danych

Artystyczne przedstawienie planety OGLE-2005-BLG-390L b, która jest przykładem superziemi krążącej po odległej orbicie
Wyobrażenie planety zbudowanej ze związków węgla

Superziemiaplaneta pozasłoneczna o masie większej od masy Ziemi i należąca do typu planet skalistych. W zależności od definicji masa tego typu planety może wahać się od 1 do 10[1], lub 5 do 10[2] mas Ziemi. Oznaczenie „superziemia” nie oznacza, że z pewnością na powierzchni planety panują warunki zbliżone do ziemskich. Definicja dotyczy tylko typu planety (skalista) i masy (większej od masy Ziemi). Ocenia się, że promień superziemi może być do 3 razy większy niż promień Ziemi, jednak największe z nich są najprawdopodobniej planetami oceanicznymi o niskiej gęstości[3].

Charakterystyka

[edytuj | edytuj kod]

Planety tego typu prawdopodobnie w większości są zbudowane z materii podobnej do tej, która buduje planety skaliste w Układzie Słonecznym, czyli głównie z krzemianów okrywających żelazne jądro planety. Planety powstałe w większej odległości od gwiazdy mogą mieć też znaczną zawartość lodu wodnego, podobnie jak księżyce lodowe krążące wokół gazowych olbrzymów w Układzie Słonecznym. Jeżeli na skutek migracji planetarnej znajdą się one bliżej gwiazdy, gdzie na powierzchni może istnieć ciekła woda, mogą stać się ciałami podobnymi do Ziemi lub planetami oceanicznymi, całkowicie pokrytymi oceanem.

Nie jest to jednak jedyna możliwość; jeżeli dysk protoplanetarny wokół gwiazdy jest ubogi w tlen, za to bogaty w węgiel, formujące się planety będą miały odmienny skład od ciał Układu Słonecznego – utworzą się planety węglowe. Prawdopodobnie będą one posiadały żelazne jądro, otoczone warstwą węgliku krzemu. Skorupa takiej planety może składać się z grafitu, który na pewnej głębokości przechodzi w diament, a na powierzchni może występować tlenek węgla, metan i inne węglowodory, zależnie od warunków w postaci lodu lub cieczy[4].

Warunki panujące na powierzchni bardzo silnie zależą od nasłonecznienia, jednak w ogólności oczekuje się, że superziemie będą wykazywały bardziej gwałtowną tektonikę płyt[5] i silniejszy wulkanizm niż Ziemia[6]. Inne badania wskazują jednak, że skorupa takiej masywnej planety może być dostatecznie sztywna, aby tektonika płyt nie mogła się rozwinąć[7].

Problemy obserwacyjne

[edytuj | edytuj kod]

Jeśli masa odkrytej planety zawiera się między jedną a ok. pięcioma masami Ziemi, to niemal na pewno jest to superziemia. W przypadku ciał masywniejszych nie jest to już takie oczywiste. Ciało może być w rzeczywistości mało masywną planetą-olbrzymem, typu Neptuna lub tzw. gorącym neptunem, jeżeli krąży blisko gwiazdy. Superziemie są bardziej zwarte, podczas gdy planety-olbrzymy mają rozległe atmosfery. Dopiero znajomość rozmiarów (promienia) planety może potwierdzić, że zaobserwowana została superziemia. Tę informację daje obserwacja tranzytu, który jednak może zajść tylko wtedy, gdy płaszczyzna orbity planety nie jest znacznie odchylona od osi obserwacji.

Bardziej szczegółowych informacji o atmosferze, klimacie, a być może nawet cechach powierzchni najbliższych planet tego rodzaju mogą dostarczyć planowane naziemne teleskopy o dużej aperturze, jak Ekstremalnie Wielki Teleskop Europejski, projekty wykorzystujące interferometrię wielkobazową oraz teleskopy kosmiczne, takie jak planowane obserwatorium ATLAST.

Odkryte superziemie

[edytuj | edytuj kod]

Pierwsze dwie superziemie: Poltergeist i Phobetor, zostały odkryte przez polskiego astronoma Aleksandra Wolszczana jako pierwsze poznane planety pozasłoneczne. Planety te są jednak nietypowe, jako że okrążają pulsar a nie zwykłą gwiazdę ciągu głównego. Ukształtowały się one z materii pozostałej po wybuchu supernowej i mogą mieć skład znacznie odbiegający od składu planet Układu Słonecznego.

Ciała o masie kwalifikującej je do kategorii superziemi są bardzo różnorodne i mogą występować zarówno na bardzo odległych orbitach, jak też blisko gwiazdy. Planeta OGLE-2005-BLG-390L b krąży wokół czerwonego karła w odległości 2,6 raza większej niż Ziemia od Słońca i przypuszczalnie przypomina Plutona budową i warunkami panującymi na powierzchni[8].

Z kolei COROT-7 b, pierwsza planeta, co do której mamy pewność, że jest skalistą superziemią[9], krąży na tyle blisko gwiazdy, że na powierzchni panuje temperatura ok. 2000 K i jest prawdopodobnie pokryta lawą. Planeta ma masę pięciokrotnie większą niż Ziemia i o 70% większą średnicę, a zatem także nieznacznie większą gęstość niż Ziemia.

Z poznanych dotąd planet tego typu Gliese 667 Cc wydaje się być najbardziej przyjazna życiu, znajduje się ona w ekosferze i na jej powierzchni panują warunki umożliwiające powstanie życia biologicznego w podobnej formie jak na Ziemi[10]. Natomiast spośród najbliższych planet tego rodzaju wyróżniają się GJ 357 b, GJ 357 c i GJ 357 d (odległe od Ziemi o ok. 31 lat świetlnych), o których odkryciu ogłosili w lipcu 2019 r. badacze Instytutu Carla Sagana analizujący obserwacje dokonane przy użyciu teleskopu TESS[11]. Czerwony karzeł GJ 357 (Gliese 357; w gwiazdozbiorze Hydry) jest gwiazdą trzy razy mniejszą od Słońca, a spośród okrążających ją planet dwie najbliższe mają najpewniej temperatur znacznie wyższe od tych, w których możliwe byłoby życie znane na Ziemi (ponad 250 i ponad 120 stopni Celsjusza), ale na trzeciej planecie, GJ 357 d, temperatura może być na poziomie -53 stopnie[a], ale być może wyższa, jeśli dzięki swej masie (6 razy większej od masy Ziemi[a]) planeta posiada gęstą atmosferę, dzięki której może tam być cieplej, a woda może znajdować się w stanie ciekłym[12].

  1. a b Wg R. Luque i innych↓: teoretyczna temperatura równoważna tej planety Teq = 219,6 ±5,9 K, tj. -53,6 ±5,9°C, jej masa Md = 6,1 ±1,0 M (gdzie symbol M oznacza masę Ziemi), a jej rok planetarny (okres okrążania macierzystej gwiazdy) trwa 55,7 dni ziemskich.

Przypisy

[edytuj | edytuj kod]
  1. Diana Valencia, Dimitar D. Sasselov, Richard J. O'Connell. Radius and Structure Models of the First Super-Earth Planet. „The Astrophysical Journal”. 656 (1), s. 545-551, 2007-02-10. DOI: 10.1086/509800. (ang.). 
  2. Jonathan J. Fortney, Mark S. Marley, Jason W. Barnes. Planetary Radii across Five Orders of Magnitude in Mass and Stellar Insolation: Application to Transits. „The Astrophysical Journal”. 659 (2), s. 1661-1672, 2007-04-20. DOI: 10.1086/512120. (ang.). 
  3. Ker Than: Nearby "Super Earth" May Have Oceans, Thick Atmosphere. National Geographic, 2009-12-16. [dostęp 2014-02-16]. (ang.).
  4. Earth-Like Planets May Be Made of Carbon. styczeń 2010.
  5. Earth: A Borderline Planet for Life?. Harvard-Smithsonian Center for Astrophysics, 2008-01-09.
  6. Super-Earth likely to be hellishly volcanic. 2010-01-06.
  7. The plate tectonics of alien worlds. „Cosmos”, 2007-10-17. [dostęp 2014-02-16]. 
  8. It's Far, It's Small, It's Cool: It's an Icy Exoplanet!. ESO, 2006-01-25.
  9. First Solid Evidence for a Rocky Exoplanet. ESO, 2009-09-16. [dostęp 2014-02-16].
  10. Reports Confirm Existence Of Habitable Exo-Planet. redorbit.com, 2012-04-29. [dostęp 2012-04-28]. [zarchiwizowane z tego adresu (2012-04-30)]. (ang.).
  11. R. Luque i inni, Planetary system around the nearby M dwarf GJ 357 including a transiting, hot, Earth-sized planet optimal for atmospheric characterization, „Astronomy & Astrophysics”, 628 (A39), 2019, DOI10.1051/0004-6361/201935801 (ang.).
  12. Marcin Kaczmarczyk: To może być druga Ziemia. I to nie tak daleko. Nowe odkrycie kosmicznego teleskopu TESS. gazeta.pl, 2019-08-04. [dostęp 2019-08-04]. (pol.).
 APLIKACJA MOJA [ Konrad Małyska ]
    

Krok 3: Wprowadzenie dziesięciu kodów do źródła strony, które mogą pochodzić z witryny.

Opublikowane przez <a href = "https://www.facebook.com/konrad.serniki" > Konrada Małyskę </a> <a href = "https://www.facebook.com/photo.php?fbid=24827744136870199&set=a.480603225344296&type=3" > Niedziela, 4 lutego 2024 </a>


   KONRAD MAŁYSKA-AUDIENCE NETWORK

Opublikowane przez <a href = "https://www.facebook.com/konrad.serniki" > Konrada Małyskę </a> <a href = "https://www.facebook.com/photo.php?fbid=24827744136870199&set=a.480603225344296&type=3" > Niedziela, 4 lutego 2024 </a>

ALGORYTM MIN-MAX

Minimax (czasami minmax) – metoda minimalizowania maksymalnych możliwych strat. Alternatywnie można je traktować jako maksymalizację minimalnego zysku (maximin). Wywodzi się to z teorii gry o sumie zerowej, obejmujących oba przypadki, zarówno ten, gdzie gracze wykonują ruchy naprzemiennie, jak i ten, gdzie wykonują ruchy jednocześnie. Zostało to również rozszerzone na bardziej skomplikowane gry i ogólne podejmowanie decyzji w obecności niepewności.

Teoria Minimax

[edytuj | edytuj kod]

Teoria minimax:

Dla każdej dwuosobowej gry o sumie zerowej istnieje wartość V i mieszana strategia dla każdego gracza, takie, że (a) – biorąc pod uwagę strategię gracza drugiego, najlepszą możliwą spłatą dla gracza pierwszego jest V, i (b) – biorąc pod uwagę strategię gracza pierwszego, najlepszą możliwą spłatą dla gracza drugiego jest -V.

Odpowiednia strategia gracza 1. gwarantuje mu spłatę V niezależnie od strategii gracza 2. i podobnie gracz 2. może zagwarantować sobie spłatę -V. Nazwa Minimax pojawiła się, ponieważ każdy gracz minimalizuje maksymalną możliwą spłatę dla drugiego – ponieważ gra jest grą o sumie zerowej, także maksymalizuje swoją minimalną spłatę.

Twierdzenie to zostało ustanowione w XX wieku przez Johna von Neumanna[1], którego powiedzenie jest cytowane „Jak do tej pory widzę, nie mogłoby być żadnej teorii gier… bez tej teorii… Myślałem, że nic nie było warte publikowania, aż Teoria Minimax została udowodniona”[2].

Opis algorytmu

[edytuj | edytuj kod]

Posiadając funkcję S oceniającą wartość stanu gry w dowolnym momencie (gracz min chce ten stan zminimalizować, a gracz max zmaksymalizować), obliczamy drzewo wszystkich możliwych stanów w grze do pewnej głębokości(ograniczonej zazwyczaj przez naszą moc obliczeniową). Zakładając, że rozgałęzienie drzewa stanów jest stałe i wynosi b(czyli na każdy ruch można odpowiedzieć b innymi), a głębokość d (tyle ruchów do przodu symulujemy algorytmem minmax), to mamy stanów końcowych, dla których obliczamy wartość stanu gry funkcją S. Zaczynamy przeglądanie od stanów końcowych, symulując optymalne wybory dla obu graczy, tak aby na głębokości d(w liściach drzewa) była dla nich optymalna liczba S (stan gry po wykonaniu d ruchów). Tak więc gracz min zawsze wybiera ruch, który prowadzi do mniejszej wartości końcowej, a gracz max – przeciwnie. Po przeprowadzeniu tej symulacji gracz, który znajduje się w korzeniu drzewa (aktualnie wykonujący ruch), ma pewność, że jego ruch jest optymalny w kontekście informacji o stanie gry z przeprowadzonej symulacji algorytmem minimax na głębokość d (tzn. maksymalizuje minimalny zysk).

Algorytm służy do wybrania optymalnego ruchu w danym momencie, dlatego po ruchu przeciwnika musimy przeprowadzić symulację ponownie. Większa głębokość d symulacji prowadzi do lepszych ruchów. Optymalizacja algorytmu z odcięciami alfa-beta pozwala, w optymalnym przypadku, zmniejszyć ilość rozpatrywanych stanów do ~ co w efekcie pozwala nam symulować ruchy prawie dwa razy głębiej.

Aby osiągnąć optymalne wyniki minimaxem, ważne jest posiadanie dobrej funkcji oceny stanu gry S. Optymalnej funkcji S zazwyczaj nie znamy, bo w takim wypadku gra byłaby już rozwiązana (znalibyśmy optymalną strategię jak np. w kółko i krzyżyk), dlatego stosuje się różne heurystyki, zazwyczaj wyrażone jako liniowy wielomian od parametrów stanu gry.

Minimax w kryterium statystycznej teorii decyzji

[edytuj | edytuj kod]

W klasycznej statystycznej teorii decyzji estymator używany jest do oszacowania parameteru Zakłada się również funkcję ryzyka zwykle określoną jako integralną z utratą funkcji. W tym kontekście jest nazwana minimax, jeśli spełnia ona

Alternatywnym kryterium w decyzji ramowej jest estymator Bayesa w obecności wcześniejszej dystrybucji Estymator jest Bayesowski, jeśli minimalizuje średnie ryzyko

Przypisy

[edytuj | edytuj kod]
  1. Von Neumann, J: Zur Theorie der Gesellschaftsspiele Math. Annalen. 100 (1928) 295–320.
  2. John L Casti: Five golden rules: great theories of 20th-century mathematics – and why they matter. New York: Wiley-Interscience, 1996, s. p. 19. ISBN 0-471-00261-5.

Linki zewnętrzne

[edytuj | edytuj kod]


Kategoria:Teoria decyzji Kategoria:Algorytmy

Speedtest.net
Ilustracja
Logo usługi
Typ strony

usługa internetowa

Autor

Ookla

Właściciel

Ziff Davis

Strona internetowa

Speedtest.net (Speedtest by Ookla) – usługa internetowa umożliwiająca bezpłatną analizę wydajności łącza internetowego, m.in. szybkości transferu danych i opóźnienia. Stanowi sztandarowy produkt firmy Ookla (zał. 2006), zajmującej się testowaniem i diagnostyką sieci, z siedzibą w Seattle w Stanach Zjednoczonych[1][2].

W ciągu miesiąca strona „Speedtest.net” odnotowuje ponad 100 mln wizyt (stan na 2020 rok)[3]. W rankingu Alexa była notowana na miejscu 139 (październik 2020)[4].

W 2014 roku przedsiębiorstwo Ookla zostało przejęte przez Ziff Davis[5].

Przypisy

[edytuj | edytuj kod]
  1. Lynnette Hintze: Mike Apgar, co-founder of Ookla, global leader in broadband speed testing. Daily Inter Lake / fosters.com, 2011-03-22. [dostęp 2020-10-06]. (ang.).
  2. About Ookla. Ookla.com. [dostęp 2020-10-06]. (ang.).
  3. Speedtest.net Traffic Statistics. SimilarWeb. [dostęp 2020-10-22]. [zarchiwizowane z tego adresu (2020-10-22)]. (ang.).
  4. speedtest.net Competitive Analysis, Marketing Mix and Traffic. Alexa Internet. [dostęp 2020-10-22]. [zarchiwizowane z tego adresu (2020-10-22)]. (ang.).
  5. Ziff Davis Acquires Ookla... (NASDAQ:JCOM). [zarchiwizowane z tego adresu (2014-12-27)]. (ang.).

Linki zewnętrzne

[edytuj | edytuj kod]


Kategoria:Amerykańskie strony internetowe Kategoria:Aplikacje internetowe