Closed nicokempe closed 6 days ago
Gerade die Erklärung zu den Elektrotechnik Grundlagen erhalten. Ich denke ich habe es jetzt verstanden. Ich werde es nochmal in eigenen Worten wiedergeben:
Atome, die in sämtlichen Gegenständen vorkommen und die kleinsten nicht weiter trennbaren Elemente darin sind, bestehen aus drei Hauptkomponenten: Protonen, Neutronen und Elektronen. Der Nucleus (Kern) umfasst Protonen und Neutronen. Für die Elektrotechnik sind besonders die Elektronen wichtig, die negativ geladen sind. Die Elektronen bewegen sich in einem elektrischen Feld, wobei bei Gleichstrom eine kontinuierliche Bewegung in eine Richtung stattfindet und bei Wechselstrom eine Art schwingende Bewegung.
Es wird unterschieden zwischen Gleichstrom und Wechselstrom.
Das Ohmsche Gesetz (I = U/R) beschreibt den Zusammenhang zwischen Stromstärke (I), Spannung (U) und Widerstand (R) und ist grundlegend für das Verständnis elektrischer Stromkreise. -> RUI
Das PUI-Dreieck hilft dabei, die Beziehungen zwischen Leistung (P), Spannung (U) und Stromstärke (I) zu visualisieren, während das RUI-Dreieck den Widerstand (R) mit einbezieht und zur Berechnung von Spannung, Stromstärke und Widerstand genutzt wird.
Bei der Stromübertragung gibt es Energieverluste, die sich in Wärme umwandeln. Dies ist eine Folge des Widerstands in den Leitern. Spezielle Netzteile und andere Technologien können diese Verluste minimieren, um eine effizientere Energieübertragung zu erreichen.
Ein Netzteil mit einer Spannung von 20 Volt und einem Strom von 3,25 Ampere hat eine Leistung von 65 Watt (20 Volt × 3,25 Ampere).
Die übliche Spannung in Haushaltssteckdosen in Europa beträgt etwa 230 Volt. Diese Spannung ist notwendig, um Haushaltsgeräte wie Lampen, Fernseher und Computer mit Energie zu versorgen.
Eine Glühbirne mit einer Leistung von 60 Watt verbraucht bei eingeschaltetem Zustand 60 Watt an elektrischer Leistung. Das bedeutet, dass sie bei einer Spannung von 230 Volt einen Strom von etwa 0,26 Ampere zieht (60 Watt / 230 Volt).
Kabelmodem: Wird wenn man Kabelinternet verwendet um den Zugang zum Internet zu ermöglichen
Beschreibung | Vorteile | Nachteile | Industrie | Office | |
---|---|---|---|---|---|
Mini PC / Stick PC | Kompakter Computer mit begrenzten Erweiterungs- möglichkeiten und häufig ohne Lüfter | Günstig, platzsparend und leise | Schlecht erweiterbar, schlechte Leistung | Inventur, Internet of Things und Lagermitarbeiter | Präsentationen, Empfang und Stempelsystem |
Desktop PC & Mini Tower | Der "traditionelle" Computer, der in der Regel Monitore und ähnliches erst extern zugeführt bekommen muss. | Nicht teuer, erweiterbar, leistungsstark | Nicht tragbar, hoher Geräuschpegel und verbraucht mehr Platz | CAD | Gut geeignet für Büroarbeiten |
All-in-One-PC | Integrierter Desktop-PC, häufig sehr flach | Platzsparend, leise | Schlecht erweiterbar, teuer, schwer | An Kassen und Empfangs- bereichen | Präsentationen, Empfang |
Big- / Midi-Tower | Großer Desktop PC mit extra viel Plart für Erweiterungen, häufig sehr leistungsstark. | Erweiterbar, leistungsstark | Teuer, schwer, nicht leicht zu transportieren | CAD | Gut geeignet für Büroarbeiten |
Thin-Client / Zero-Client | Kleiner, leichter und einfacher PC ohne eigene Festplatte oder OS, der auf Server Ressourcen zurückgreifen muss. | Günstig, deutlich weniger Wartungsarbeiten | Kein lokaler Speicher, angewiesen auf Server-Speicher | Zentale Verwaltung oder für sensible Abteilungen | Gut geeignet für Büroarbeiten |
Notebook | Tragbarer Computer mit integriertem Display, Tastatur und Touchpad | Mobil, platzsparend und lange Akkulaufzeit | Teurer als Desktop-PCs, schlecht erweiterbar, laut und häufig heiß / schlecht belüftet | Außendienst, Reisen und variable Arbeitsorte | Gut geeignet für Büroarbeiten |
Tablet | Kleiner, tragbarer Computer mit Touchscreen | Günstig, mobil, lange Akkulaufzeiten und platzsparend. | Begrenzte Leistung, schlecht erweiterbar, häufig weniger Funktionen bedingt unter anderem durch das Betriebssystem | Außendienst und digitale Signaturen | Begrenzte Möglichkeiten, gut für kreatives Arbeiten |
80 PLUS ist eine Initiative zur Förderung von PC-Netzteilen, die einen Wirkungsgrad von 80% oder höher aufweisen. Für die "80-PLUS"-Zertifizierung wird angefordert, dass Desktop-Computer und Server bei den Lastpunkten 20%, 50% und 100% jeweils einen Wirkungsgrad von mindestens 80% erreichen.
...
BIOS ist die Firmware die gespeichert ist auf dem BIOS Chip aber die Einstellungen (Datum, Zeit, ...) sind auf dem CMOS Chip gespeichert.
Simuliert Hardware auf Softwareebene um auf einer Maschine mit gegebener Hardware die Hardware nutzen zu können um gleich mehrere Bereiche nutzen zu können auf die man seine Ressourcen effizient verteilen kann (und aus unbenutzter Hardware möglicherweise neuen Space für Server schaffen zu können). Hier ist man nicht auf ein Betriebssystem eingeschränkt, man kann da nutzen was auch immer auf der Hardware läuft (Unterschiedliche Windows Versionen, unterschiedlichste Linux Distributionen oder auch ganz andere Themen. Die Server werden trotzdem nicht voneinander wissen und verhalten sich dementsprechend. Um die Virtuellen Server dann zu steuern gibt es Hypervisor. Beispiele dafür sind Proxmox VE, VMWare VSphere, Hyper V, VirtualBox, Oracle VM oder ähnliche. Der Hypervisor verteilt und kontrolliert das verteilen der Ressourcen (Storage, RAM, CPUs, ...) über die Maschine hinweg. Es gibt zwei Typen von Hypervisorn: Typ 1 oder Typ 2.
Typ 2 ist häufig verwendet auf Nutzerebene (z. B. Windows auf Mac oder wenn man etwas testen will, z. B. eine Kali VM o.ä.)
Vorteile:
Traditionell lief auf einem Server eine Applikation. Weil Server heutzutage aber so stark werden, dass die Ressourcen bei einem solchen Ansatz häufig kaum ausgeschöpft werden, wurde dieser Ansatz überdacht. Ein Ansatz sind virtuelle Maschinen, also die eben genannte Virtualisierung. Das war der erste Ansatz und hier wird die Hardware tatsächlich simuliert indem weitere Server simuliert werden.
Nachteile von virtuellen Maschinen:
Ein Container ist kein ganzes Betriebssystem, hier wird nur eine Applikation abgeschnitten vom Betriebssystem laufen und die bekommt nur die Daten, die sie tatsächlich braucht (Dateien, Konfigurationen, Abhängigkeiten). Damit verbraucht sie weniger Speicher und Ressourcen als ein eine ganze VM.
Beispiel: Wenn ein Entwickler eine Webseite entwickelt hat, dann erstellt der ein Bundle mit all den benötigten Dateien (WebServer-Software, Abhängigkeiten der Webseite, Bilder, kompilierte Version der eigentlichen Webseite und ggf. Konfigurationsdateien oder ähnliches). Der Container kann dann ohne großen Aufwand problemlos auf unterschiedlichste Systeme ausgerollt werden. Dann kann man diese Webseite problemlos schnell überall zum laufen bringen.
Anstelle eines Hypervisors verwenden Container eine Container Engine. Die liegt genau so wie sämtliche Container direkt auf dem Betriebssystem. Weil die Container nur die eigentlichen Applikationen mit ihren Abhängigkeiten beinhalten profitiert man immens von der Verkleinerung:
Nachteile im Vergleich mit VMs haben Container trotzdem:
Möglichkeiten: Man kann VMs und Container auch teilen: Man erstellt sich ein paar große VMs und auf denen verwendet man dann Container.
Der Kernel ist die unterste Software-Schicht und stellt die Verbindung zwischen Hardware und Software her. Die folgenden Schichten beinhaltet der Kernel:
Nicht jeder Kernel hat all diese Funktionen. Aufgaben des Kernels:
Wird ein Programm unter der Kontrolle eines Betriebssystems (bzw des Kernels) ausgeführt, dann wird dieser Ablauf als Prozess / Task bezeichnet.
Wenn ein Programm mehrere Prozesse startet, dann nennt man diesen Prozess "Thread".
Voll (Full): Die gesamten Daten werden auf ein Tape / eine Festplatte gespeichert als Backup. Das braucht zwar super lang, aber es ist effektiv weil man damit einfach alles restoren kann.
Inkrementell (Incremental): Viel schneller als ein volles Backup. Da wird nur das gebackuped, was sich tatsächlich seit dem letzten vollen Backup verändert hat. z. B. Montags ein volles Backup, Dienstags dann die veränderten paar Dateien, Mittwoch dann die da geänderten Dateien usw. Das Restoring vom inkrementellen Backup dauert am längsten, weil man erst die Backups zusammenführen muss und daraus den Restore bekommt.
Differenziell (Differential): Schneller als das volle aber nicht so schnell wie das inkrementelle. Hier wird jeden Tag / in jedem Intervall alles gebackuped das sich seit dem letzten vollen Backup verändert hat. Hier aber nicht nur die Veränderungen seit dem letztem kleinen sondern hier jedes mal alles seit dem letzten. Das ermöglicht eine schnellere Recovery aber braucht mehr Speicher und dauert beim Backup-Prozess länger.
Fehlertoleranz: Ist die Prävention von Ddatenverlusten, wenn eine Komponente ausfällt.
Disaster Recovery: Ist der Prozess der Widerherstellung von Daten nach einem Ausfall.
Das GFS-Konzept
Ich habe gerade noch die Einführung in Telefonanlagen erhalten. Unterschieden wird bei dem Thema zwischen der alten Variante Analog wobei die Kommunikation über Wellen stattfindet (wie bei einem Schnurtelefon) und dem neuen und aktuellen digitalen (z. B. Voice-over-IP) Telefon. Bei Voice-over-IP findet die Kommunikation nicht über Wellen sondern über IP-Pakete statt, die zunächst kodiert und bei Ankunft dann dekodiert werden.
Die alte Variante ISDN wird nicht mehr verwendet, die war auch digital, da lief die Übertragung aber über Nullen und Einsen.
Wir verwenden bspw. von der Telekom eine Anzahl von knapp 2000 Telefonnummern für Echterdingen und für die anderen Standorte mit eigener Infra (nicht bei Shared Offices) eigene Telefonnummern. Die von anderen werden gerouted auf unsere 700, das ist die interne Rufnummer für die öffentliche Nummer vom Empfangsbereich. Wir haben für einige Mitarbeiter auf dem IP-Telefonie-Server Daten hinterlegt (Kurzwahl, Telefonnummern, Kürzel als Primärschlüssel, Email, Lizenz bei der Telekom und mehr). Unser IP-Telefonie-Server läuft als SaaS bei der Telekom.
Ein "Network Attatched Storage" ist ein zentralisiertes Speichergerät zum speichern von Daten in einem Netzwerk. Macht nichts anderes außer Daten speichern. Das ist eine Box mit einigen Festplatten drin um eine RAID-Konfiguration durchzuführen. Die NAS ist direkt über einen Switch oder Router im Netzwerk. Sobald die NAS im Netzwerk liegt kann man auf die NAS wie auf ein normales Storage Netzwerk zugreifen und kann aus dem Explorer direkt auf den Speicher zugreifen.
Eine NAS wird verwendet in kleinen bis mittelständigen Unternehmen. Die NAS ist ein Single Point of Failure, wenn die keinen Strom mehr hat, dann kann kein Gerät mehr auf den Storage zugreifen.
Storage Attatched Network ist ein spezielles dediziertes Highspeed Netzwerk das riesige Mengen an Daten speichert und zur Verfügung stellt. Hier werden mehrere Server, Switches als auch Festplatten-Arrays verwendet um eine gewisse Redundanz zu ermöglichen. Das ermöglicht Fehlertoleranz.
Bei uns war das früher Samba. Wir hatten da Server, die waren an Switches angebunden und die widerum an Speicher, das können ganz normale Storage Server sein. Hier lassen die sich nicht so einfach zugreifen wie bei Windows.
Redundant Array of Independent Disks (RAID) ist eine Art von Speicher bei der Daten auf mehrere Festplatten innerhalb desselben Systems geschreiben werden. Wie genau die Festplatten verwendet / angeordnet werden wird anhand von Zahlen beschrieben (RAID 0, RAID 1, RAID 5, RAID 10, ...).
RAID-Arrays verteilen I/O-Vorgänge auf mehreren Festplatten, um Daten schneller zu lesen und zu schreiben oder Daten einer Festplatte auf andere zu spiegeln, damit das System ohne Datenverlust weiter betrieben werden kann, wenn eine der Festplatten ausfällt.
Bei RAID 0 gibt es, anders als für RAID üblich, keine Datenredundanz. Hier werden die Daten in kleinere Gruppen aufgeteilt und auf mehrere Festplatten gespeichert. Man kann zwar um einiges schneller mit den Daten arbeiten, wenn man aber eine der zwei Festplatten verliert, dann gehen alle Daten verloren. Wenn die Daten hier auch nur im kleinsten relevant sind und keine Backup-Strategie vorliegt ist dieses RAID eine scheiß Idee. Hier ist man nicht auf 2 Festplatten beschränkt, man kann auch aufteilen auf noch viel mehr Festplatten.
Nicht das gleiche wie 2 normale Festplatten, da wird halt auf 2 verteilt, hier werden einfach die Daten von einer auf 2 verteilt wodurch gegenseitige Abhängigkeit aber eben auch schnellere I/O Operationen erreicht.
Sollte eigentlich nicht mal RAID genannt werden, weil nicht mehr Fehlertoleranz dazu kommt sondern mehr Fehleranfälligkeit reinkommt (nur eine von 2 Festplatten muss failen und das wars).
Perfekt für Datensicherheit und Datenredundanz. Hier werden die Daten auf einer Festplatte gespeichert und auf minimal (aber um weitere erweiterbar) einer weiteren Festplatte gespiegelt. Auf einer gespeichert und auf X weiteren kopiert. Also kann auch mal eine ausfallen und alles funktioniert weiterhin.
Mit Mindestens 3 Festplatten lassen sich hier die Vorteile der beiden vorherigen Systeme kombinieren. Hier werden Daten gestriped und über XOR wird dann die Parität gebildet und in einer ständig gleichmäßig durchwechselnden Festplatte gespeichert.
Der Nachteil hierbei ist, dass immer eine Festplatte wegfällt, weil ja eine für die Parity verwendet werden muss. Die Parity kann verwendet werden, um ein Single Disk Failure zu fixen indem die Parity von den anderen Disks genutzt werden. 2 Festplatten Defekte auf ein mal würde RAID 5 nutzen.
Funktioniert wie RAID 5, nur wird hier noch eine weitere Festplatte für die Speicherung der Parität verwendet. Mindestens 4 Festplatten. Dabei wird die Parity dann immer nicht nur auf einer Festplatte sondern auf 2 Festplatten gespeichert. Bei 4 Festplatten würden 50% für tatsächliche Speicherung nutzbar sein.
Schreibt viel langsamer weil es zwei Parity Blocks beschreiben muss.
Bei RAID 10 werden die Vorteile von RAID 0 und RAID 1 vereint. Hier wird zuerst gemirrored und dann gestriped. Mindestens 4 Fesplatten (2 zum mirroren und 2 zum stripen).
Wie RAID 10 nur anders rum, hier wird zuerst gestriped und dann gemirrored.
PUI und RUI
Das PUI-Dreieck hilft dabei, die Beziehungen zwischen Leistung (P), Spannung (U) und Stromstärke (I) zu visualisieren, während das RUI-Dreieck den Widerstand (R) mit einbezieht und zur Berechnung von Spannung, Stromstärke und Widerstand genutzt wird.
Es sind PUI und URI, nicht RUI. Der obere Buchstabe muss als erstes kommen, sonst verwirrst du dich am Ende selbst.
* **CAD-Workstation**: Ein Computer mit hohen Taktfrequenzen und wenigen Kernen, weil diese kaum bis gar nicht skalieren.
Ist nicht der ausschlaggebende Faktor. In der Regel wird für CAD Workstations Serverhardware verwendet. Serverhardware läuft in der Regel andersrum (viele Kerne, niedrigerer Takt). Gründe für Serverhardware:
Die Digital Subscriber Line (in ihrer normalen Fassung) kann bis zu 16 Mbit/s beziehen. DSL war der Altbacken-Scheiß von der Telekom, den die uns ausgebaut haben statt Glasfaser weil Glasfaser ja keine Zukunft hat 🤓. In Business Tarifen kann man diese auch synchron beziehen (16 Up & 16 Down).
Vectorized Digital Subscriber Line macht den DSL Scheiß nicht gut aber holt noch ein bisschen mehr raus (bis zu 50 Mbit/s).
Die kann bis zu 250 Mbit/s.
War das Medium für Fernsehen (daher weit verbreitet), maximal 1.000 Mbit/s Download und 50 Mbit/s. Hier kein synchroner Bezug möglich.
Wie Starlink, gute Bandbreite (so 200 Mbit/s) aber scheiß Ping (Streaming von Serien gut, Competitive Gaming scheiße). Durch Starlink und Co. kompakter als eine ganze scheiß Antenne. Für digitale Nomaden ganz geil weil man sehr dynamisch nutzen kann.
Worldwide Interoperability for Microwave Access ist bedeutungslos seit spätestens 2014, weils durch LTE abgelöst wurde.
Hat WiMAX abgelöst. LTE steht für Long Term Evolution und ist gleichzusetzen mit 4G. Das ist die vierte Mobilfunk-Generation. Sie verwendet das Mobilfunknetz. Die maximale Bandbreite der LTE-Technologie (auch als 4G bekannt) beträgt bis zu 300 MBit/s im Download und bis zu 50 MBit/s im Upload12. Diese Geschwindigkeiten können jedoch je nach Standort und Netzwerkauslastung variieren. Es ist wichtig zu beachten, dass diese Werte die theoretischen Maxima darstellen und die tatsächlichen Geschwindigkeiten, die Benutzer erleben, oft niedriger sind. Mit den Fortschritten von LTE-Advanced (LTE-A) wurde sogar ein Spitzen-Download von 1000 MBit/s erreicht3.
Powerline Communication ist keine Alternative zu DSL. PLC ist das Gegenstück zu PoE (Power over Ethernet). Hier kann das Netzwerk über das Stromnetz fließen.
Bevor man ein Speichermedium (USB-Stick, SSD, HDD o.ä.) nutzen kann, muss man erst ein Dateisystem drüberformatieren. Die kommen auch öfters mal schon vorformatiert vom Hersteller aber auch nicht immer.
Ein Dateisystem stellt einen Weg bereit, wie Daten auf einem Speichermedium gespeichert und organisiert werden. Ohne ein Dateisystem würden die Daten einfach irgendwo draufgejagt werden und man könnte sie nicht wiederfinden. Daher gibts nen System dafür. Je nach Dateisystem unterscheiden sich ein paar Dinge:
Wenn man ein unformatiertes Speichermedium unter Windows einsteckt, dann bekommt man eine Prompt und wird dazu aufgefordert zwischen FAT32, exFAT und NFTS zu wählen.
Steht für File allocation table. Wurde mit Windows 95 eingeführt. Ist am besten kompatibel mit Geräten. Hier können Dateien aber maximal 4 GB groß sein, weil die Technologie einfach noch krass beschränkt ist. Partitionen können hier maximal 2 TB groß sein.
Steht für extended file allocation table. Wurde 2006 als Verbesserung für FAT32 von Microsoft eingeführt. exFAT kann quasi unendlich große Mengen an Partitionen oder Dateien beinhalten. Nicht ganz unbeschränkt aber für unsere aktuellen Zwecke völlig ausreichend und quasi unbeschränkt
Kompatibilitätsprobleme kann es hier geben mit einigen Linux Distributionen oder auch älteren Geräten. Generell fährt man damit aber auch ganz gut.
New technology file system kam mit Windows XP raus und ist jetzt das Standard-Datei-Format. Kann auch unendlich große Dateien und Partitionen speichern. Hat noch mehr Features als exFAT und FAT32. Je nach Dateisystem hat man unterschiedliche Features bei Dateien. Veranschaulicht wird das durch die Eigenschaften bei den Files im Explorer:
Hier nochmal eine komplette Übersicht der Inhalte:
Unterbrechungsfreie Stromversorgungen dienen der Abfederung von Stromausfällen sowie der Sicherstellung der Weiterversorgung von Geräten bei Ausfall der Hauptstromquelle.
Oder auch: Standby-USV oder VFD (Voltage and Frequency Dependent)
Oder auch: Double-Conversion-USV oder VFI (Voltage and Frequency Independent from Main Supply)
Oder auch: Line Interactive USV oder VI (Voltage Independent from Main Supply)
Einige Laserdrucker haben beim Einschalten oder Drucken einen hohen Strombedarf, der die Kapazität der USV-Batterien übersteigen kann, was zu Überlastungen führen kann.
Nutzt ein Kabelmodem mit einem Koaxialkabel, das einen Link zum ISP herstellt. Wird in der Regel vom gleichen Anbieter wie von Kabel-TV angeboten. Bietet High-Speed-Internet. Ist gut ausgebaut, weil Kabel-TV bereits gut ausgebaut wurde. Es werden unterschiedliche Pakete vom Anbieter angeboten. Bei Kabelanbietern kommt dann ein Modem bei der direkt schon ein Koaxiakkabel rein kann und das ist dann der bekannte "Router" mit Switch und Wifi Router. Das Gerät vergibt Internet.
Nachteil von Kabel ist, dass man sich die Bandweite vom ISP in dem Bereich teilen muss, das heißt zu Peakzeiten könnte man wegen anderen die ihr Internet nutzen verlangsamt werden.
Die Digital Subscriber Line bietet über einen DSL Modem die typischen Telefonlines als Verbindung an. DSL ist nicht so schnell wie Kabel, ist aber günstiger und man muss sich kein Internet teilen weil alle eine dedizierte Leitung zum ISP haben. Je nachdem wo man wohnt variiert die DSL-Geschwindigkeit, vom 25 Mbps bis zu 250 Mbps.
Hier steckt man ein Standard Telefon-Kabel in sein DSL-Modem.
Der typische DSL-Typ für Heimnutzer ist ADSL (Asymetric Digital Subscriber Line), da ist der Download-Speed viel schneller.
Bei SDSL (Symetric Digital Subscriber Line) sind Upload und Download gleich. Hauptsächlich von Unternehmen genutzt.
VDSL (Very High Bit Rate Digital Subscriber Line) ist die schnelle Form von DSL, die auch über Kupferkabel laufen kann. Diese Methode ist nur für sehr kurze Strecken gedacht. Etwa 3x so schnell wie ADSL.
Das schnellste Internet aktuell. Download und Upload im üblichen Bereich liegen auch bei so 1000 Mbit/s im Endverbraucherbereich. Im Unternehmenskontext ist hier aber noch viel mehr möglich (mehrere Gbit/s).
Glasfaser nutzt Licht um Daten zu verschicken. Glasfaser ist nicht nur schneller sondern kann auch viel längere Distanzen durchgehen. Ist teurer als DSL und Kabel.
Die Kabelkategorie (CAT) bestimmt die maximale Übertragungsgeschwindigkeit und Bandbreite. Moderne Kategorien wie CAT 6, CAT 7 und CAT 8 sind besser abgeschirmt und ermöglichen höhere Geschwindigkeiten, was sie für aktuelle Hochgeschwindigkeitsnetzwerke geeignet macht. Die Auswahl des richtigen Kabels hängt von der erforderlichen Netzwerkleistung und dem geplanten Einsatzbereich ab.
Shielded Twisted Pair Kabel: Hat innen drin nochmal nen Schutz der Interferenzen aufhält, das kann man sich vorstellen wie so ein Fischnetz.
Bei Half Duplex werden Daten von einem Kupferkabel wird nur in eine Richtung übertragen. Bei Full Duplex wird in beide Richtungen übertragen. Man kann also nur in eine Richtung während einem Zeitpunkt kommunizieren, nicht gleichzeitig in beide Richtungen. Bei 2 PCs müsste der andere also immer warten bis der andere fertig ist wenn sie etwas übertragen wollen. Das ist ähnlich wie bei Walkie-Talkies.
Full Duplex geht gleichzeitig in beide Richtungen. Das verdoppelt die Bandweite und ist vergleichbar wie mit 2 Telefonen, da kann man sich auch gegenseitig gleichzeitig anschreien.
Half Dulplex wird nicht mehr verwendet. Wenn überhaupt, dann weil man mit super super alter Hardware mit Hubs arbeiten muss, die können nämlich nur Half Duplex.
CSMA/CD ist der Verteiler der entscheidet wann gesprochen werden kann.
Es gibt einige Standards für strukturierte Verkabelung und viele Definitionen und Auflistungen mit Anforderungen, Zielen und mehr aber insgesamt ist alles gesunder Menschenverstand wenn man sich mit sowas schon davor auskannte.
Relevant zum merken sind die 3 Zonen: