Hi, ist es sinnvoll bzw. sollte man es vermeiden einen Router im Netzwerkschrank zu positionieren? Also wird das Feld damit (spürbar) abgeschwächt? Vg
Welches Feld? Bitte erkläre genauer was du meinst. Sonnst fürchte ich kann Dir keiner deine Frage beantworten.
Dennis W. schrieb: > Hi, > > ist es sinnvoll bzw. sollte man es vermeiden einen Router im > Netzwerkschrank zu positionieren? > Also wird das Feld damit (spürbar) abgeschwächt? > > Vg Wenn der Netzwerkschrank aus Blech ist, dann ist es für den WLAN-AccessPoint schlecht. Stichwort "Faraday'scher Käfig" Übrigens: Viele Verwechseln "Router" mit "WLAN". Nur, weil es viele Geräte zu kaufen gibt, die beides kombinieren, hat ein Router noch lange keine WLAN-Funktionalität. https://de.wikipedia.org/wiki/Router
Um welchen Router handelt es sich überhaupt? Hat dieser Router WLAN bzw. DECT und soll es verwendet werden?
Dennis W. schrieb: > Router im Netzwerkschrank? nichts genaues weiß man nicht. Bei jeder Funkverbindung ist die spezifische Topologie, Leistung und Antennenausrichtung wichtig. Bei regalartig offenen Schränken könnte das funktionieren, oder auch nicht. Frag das Huhn.
Ok, danke. Ich frage deshalb, weil die Elektrikfirma den Router in unseren Netzwerkschrank verbauen möchte. Was genau mit "Router" hier gemeint ist, weiß ich gerade selber nicht. Es wird jedenfalls je eine Leitung von insg. zwei Internetanbietern zum Netzwerkschrank führen und da wird die Firma dann wiederum je einen Router pro Anbieter unterbringen. Deshalb hat der Netzwerkschrank auch mittlere Kühlschrankgröße. @ sumo: Ich habe tatsächlich einfach angenommen, dass diese Router auch Wlan beinhalten. PS: @ Andreas.D: Mit Feld meine ich daher natürlich elektromagnetisches Feld. Um welche Felder dreht es sich in diesem Forum denn sonst? :D
> Ich frage deshalb, weil die Elektrikfirma den Router in unseren > Netzwerkschrank verbauen möchte. Was genau mit "Router" hier gemeint > ist, weiß ich gerade selber nicht. > Es wird jedenfalls je eine Leitung von insg. zwei Internetanbietern zum > Netzwerkschrank führen und da wird die Firma dann wiederum je einen > Router pro Anbieter unterbringen. Deshalb hat der Netzwerkschrank auch > mittlere Kühlschrankgröße. > > @ sumo: Ich habe tatsächlich einfach angenommen, dass diese Router auch > Wlan beinhalten. Ich würde mal eher die Planung anschauen, ob überhaupt WLAN aus dem Rack geliefert wird. In Anbetracht der redundanten Internetverbindung scheint es doch eine größere Anlage zu sein und die Firma nicht nur aus einem Raum (das lärmende Rack enthaltend) zu bestehen. Wer macht denn die Netzwerkplanung? Die "Elektrikfirma" (oder hoffentlich doch eher ein Systemhaus. Wer wird das administrieren?
Das werde ich morgen mal in Erfahrung bringen. So oder so wird es aber ja mehr Sinn machen, den "Wlan" Router dann einfach auf den Schrank draufzusetzen. Funk ist aber eh nicht sonderlich wichtig, da alle Geräte per Kabel verbunden sind. Hatte mich nur generell gewundert. In dem Rack ist "nur" ein Switch, das Patchfeld und dann eben die Anschlüsse, welche die Elektrikfirma in Kürze dort installiert. Wie-geartet-auch-immer die aussehen. Ursprünglich hatten wir uns an eine IT-Firma gewendet aber die Mitarbeiter sind noch weniger kompetent, als meine Person. Darauf kamen wir, als uns (bei einem Netzwerk von 10 PCs) eine teure Hardware-Firewall empfohlen wurde. Daher werde ich die Administration usw. nun übernehmen. Leider sind wir gezwungen Windows zu verwenden, wo ich schon vor Jahren auf Linux umgestiegen bin..
Wenn du WLAN haben willst, wirf mal einen Blick auf die Unifi Ubiqiti. Ich habe drei Stück im Einsatz und bin top zufrieden. Nicht superbillig, aber auch nicht unbezahlbar. Und von der Administration um Klassen besser als Consumerware. Ich kriege nichts dafür, bin nur zufriedener Kunde.
Man kann auch Accesspoints oder Router mit WLAN-Funktion im Serverschrank unterbringen (z.B. LANCOM oder Draytek, zu denen gibts auch 19-Zoll-Träger), wenn diese abnehmbare Antennen haben. Dann klebt man Magnetfuß-Antennen außen auf den Schrank, die mit einem Kabel zum Sender hin verbunden sind ...
Max G. schrieb: > Wenn du WLAN haben willst, wirf mal einen Blick auf die Unifi > Ubiqiti. > Ich habe drei Stück im Einsatz und bin top zufrieden. Nicht superbillig, > aber auch nicht unbezahlbar. Und von der Administration um Klassen > besser als Consumerware. > > Ich kriege nichts dafür, bin nur zufriedener Kunde. Was die WLAN-Funktionen betrifft, gebe ich dir recht. Was aber den Hersteller geritten hat, dieses strunzdumme 24V passiv PoE einzusetzen, wissen nur die Götter. Bloß Vorsicht, und niemals andere Geräte an der entsprechenden Buchse/Dose anschließen. Und wenn man Glück hat, löst sich auch gleich der hauseigene PoE-Switch noch mit in Rauch auf ...
Dennis W. schrieb: > die Mitarbeiter sind noch weniger kompetent, als meine Person. Darauf > kamen wir, als uns (bei einem Netzwerk von 10 PCs) eine teure > Hardware-Firewall empfohlen wurde. Was ist an der Empfehlung jetzt so falsch? Würde ich auch machen. Das muss nun keine sündteure Kiste sein, aber zumindest ein Host mit iptables oder Sophos drauf würde ich da einsetzen. Was habt ihr da momentan laufen? Fritzbox und Personal Firewall; und dann übers Systemhaus fluchen weil ständig das Netz zusammen bricht?
Eine Besenkammer in der Ecke einer Wohnung oder eines Bürotrakts ist der schlechteste Platz oberhalb des Kellers, den man für einen WLAN-AP/Router finden kann. Der gehört in die Nähe der Nutzer, mit möglichst wenig Wänden dazwischen - welcher Art auch immer.
:
Bearbeitet durch User
Vka schrieb: > Fritzbox und Personal Firewall; und > dann übers Systemhaus fluchen weil ständig das Netz zusammen bricht? Bei nur 10 PCs und normaler Büronutzung ist eine Fritzbox durchaus brauchbar, sofern kein wirklich kompetenter Admin vorhanden ist.
Dennis W. schrieb: > Was genau mit "Router" hier gemeint > ist, weiß ich gerade selber nicht. Man macht das Fragen auch keinen Sinn! Du hast nicht nur deine sondern auch unsere Zeit verschwendet!
Dennis W. schrieb: > die Mitarbeiter sind noch weniger kompetent, als meine Person. Ich melde Zweifel an.
Dennis W. schrieb: > Das werde ich morgen mal in Erfahrung bringen. > So oder so wird es aber ja mehr Sinn machen, den "Wlan" Router dann > einfach auf den Schrank draufzusetzen. Funk ist aber eh nicht sonderlich > wichtig, da alle Geräte per Kabel verbunden sind. Hatte mich nur > generell gewundert. > > In dem Rack ist "nur" ein Switch, das Patchfeld und dann eben die > Anschlüsse, welche die Elektrikfirma in Kürze dort installiert. > Wie-geartet-auch-immer die aussehen. > Ursprünglich hatten wir uns an eine IT-Firma gewendet aber die > Mitarbeiter sind noch weniger kompetent, als meine Person. Darauf kamen > wir, als uns (bei einem Netzwerk von 10 PCs) eine teure > Hardware-Firewall empfohlen wurde. Na das klingt ja mal wirklich waaahnsinnig inkompetent!!11elf > Daher werde ich die Administration usw. nun übernehmen. Oh Boy... > Leider sind wir > gezwungen Windows zu verwenden, wo ich schon vor Jahren auf Linux > umgestiegen bin.. Man sollte das für die Aufgabe passende Werkzeug wählen und nicht versuchen mit einem Auto zum Meeresgrund zu fahren. Dass du auf Linux gewechselt hast, sagt nichts über die Bedürfnisse des Unternehmens aus. Welche Rolle spielst du dort überhaupt - Inhaber, Teilhaber, Angestellter, Freund vom Chef? Jedenfalls ganz schön viel Meinung für so wenig Ahnung. Firewall macht immer Sinn, allein weil da bei aktivem Wartungsvertrag der Herstellersupport und die Beseitigung von Sicherheitslücken viel besser ist als bei Consumergeräten. Im Fall des Falles könnte ein billiger Router vom Media Markt als grobe Fahrlässigkeit gewertet werden. WLAN im Router ist fürs Business sowieso Müll, wenn der Router nicht gerade zufällig eine Hardwarefirewall ist und mitten im Büro steht (winzige Satellite Offices z.B.). Die APs gehören jedenfalls in die Nähe der Endbenutzer. Dann werf ich noch ein paar Begriffe in den Raum: Monitoring, Logging, Alerting.
Lucas N. schrieb: > Firewall macht immer Sinn, allein weil da bei aktivem Wartungsvertrag > der Herstellersupport und die Beseitigung von Sicherheitslücken viel > besser ist als bei Consumergeräten. Schon richtig, aber man sollte die Kirche im Dorf lassen. Für eine kleine Autowerkstatt/Kiosk/Kneipe/Zimmerei reichen auch GUTE Consumer-Geräte. Die von Profis verschmähte Fritzbox ist deutlich besser wie ihr Ruf. Nur halt nicht besonders schnell. Das einzige, was ihr wirklich fehlt, ist ein RADIUS-Server.
Lucas N. schrieb: > Dann werf ich noch ein paar Begriffe in den Raum: Monitoring, Logging, > Alerting. Man sollte erst wissen, was für ein Gewerbe das ist, bevor man irgendwelche Begriffe in den Raum wirft. Kneipe? Handwerksbetrieb? Arztpraxis?
Überall wo Kundendaten gespeichert sind, sollte man nicht rumspielen. Von deinen Beispielen ist gerade mal die Kneipe ein geeigneter Kandidat für eine Fritzbox. Aber welche Kneipe hat schon Netzwerkschränke und zwei Internetanschlüsse... edit: Kiosk und Kneipe
:
Bearbeitet durch User
Lucas N. schrieb: > Überall wo Kundendaten gespeichert sind, sollte man nicht rumspielen. > Von deinen Beispielen ist gerade mal die Kneipe ein geeigneter Kandidat > für eine Fritzbox. Nur ist der Router nicht der entscheidende Teil. Ein Cisco ist teurer als eine Fritzbox, aber die DSGVO bleibt einem dadurch nicht erspart.
:
Bearbeitet durch User
BTW NAT Router kann auch ein 30€ Linksys spielen. Bei der HW Firewall geht es, was die Funktionalität betrifft, um IDS, AV (hauptsächlich Web UTM), Logging und Alerting von Zwischenfällen. Kann die Fritzbox etwas davon (hatte nur einmal vor Jahren kurz eine zwischen den Fingern)?
A. K. schrieb: > Lucas N. schrieb: >> Überall wo Kundendaten gespeichert sind, sollte man nicht rumspielen. >> Von deinen Beispielen ist gerade mal die Kneipe ein geeigneter Kandidat >> für eine Fritzbox. > > Nur ist der Router nicht der entscheidende Teil. Ein Cisco ist teurer > als eine Fritzbox, aber die DSGVO bleibt einem dadurch nicht erspart. kannst ja auch eine ASA nehmen :-P
- 2 eigenständige WAN-Verbindungen und statt einer Firewall-Appliance dann einen Plastikrouter dranhängen? Kannste schon so machen: Dann isses halt scheiße... Wenns einem zu tueer erscheint isses vielleicht sinnvoller erstmal zu fragen "Warum wollt ihr das so machen" und nicht zu sagen "die haben ja keine Ahnung". Warum nutzen Firmen eigentlich Storage-Systeme für zig tausende Euro für "wenige" Terabyte wenn man die Platten im Mediamarkt doch für schmales Geld bekommt? - "Leider Windows" kannste deinen Softwareanbietern sagen und die ganze Marktmacht deiner Bude auskosten. Da gibts zwei Mögliche Antworten: "Yes Sir! Wir werden die Anwendung neu schreiben und anpassen" oder "Dann werden Sie sich einen anderen Anbieter suchen müssen". Überleg dir was die Wahrscheinlichere ist. Und warum Linux und nicht nen Mac? Es gibt verdammt viele Systemadministratoren die gerne und oft Linux, BSD und andere Unixoide Systeme einsetzen. Der Profi zeichnet sich dadurch aus, dass er betriebliche Anforderungen von seinen ganz privaten Vorlieben unterscheiden kann. Wenn sich das kombinieren lässt: Umso besser. - Als Systemhaus würde ich mich jetzt zurücklehnen und abwarten. Man sieht sich im Leben immer zwei Mal. Kunden die meinen es besser zu wissen und dann hilfesuchend winzeln wenn die Hütte brennt, bekommen einen ganz super Sondertarif. Was sagst du eigentlich als künftiger verantwortlicher (und haftbarer) Administrator zur geplanten Windows 10 Lizensierung - Pro oder Enterprise? Ich sag mal "Telemetriedatenübermittlung" und "Verarbeitung personenbezogener Daten". Über Accountverwaltung und Policies wirst du dir ja wie über das Backup selbst Gedanken gemacht haben. Das sind so Basics, unnötig darauf hinzuweisen.
Lucas N. schrieb: > kannst ja auch eine ASA nehmen :-P Gegenüber dem, was Cisco über die Jahre in Sicherheitsfragen alles ausgefressen hat, ist AVM wirklich harmlos. Heute war wieder was ordentliches drin. ;-)
:
Bearbeitet durch User
P. W. schrieb: > Warum nutzen Firmen eigentlich Storage-Systeme für zig tausende Euro für > "wenige" Terabyte wenn man die Platten im Mediamarkt doch für schmales > Geld bekommt? Wärst du sehr schockiert, zu erfahren, dass sie beides nutzen? ;-) Also gut, nicht direkt Mediamarkt, aber wir haben stückzahlmässig viel mehr Lowend-QNaps als Netapps.
:
Bearbeitet durch User
Dennis W. schrieb: > Leider sind wir > gezwungen Windows zu verwenden, wo ich schon vor Jahren auf Linux > umgestiegen bin.. Ich hoffe du bist nicht der Dennis eines Zulieferers! Geschichte dazu: Für einen Kunden mussten wir eine UI entwickeln lassen für eine Steuerung. Der Kunde teilte mit das er Windows verwendet, und dort dies zu laufen habe. Andere Systeme kamen nicht in Frage (ich erinnere mich auch dass es kein Windows CE sein durfte, weil die Rechner normale PCs waren in einem speziellen Gehäuse. Der Zulieferer schrieb die UI passend für Linux (Derivat ist mir nicht mehr in Erinnerung). Der Kunde konnte daher nicht wie gewohnt und gefordert das System verwenden und sprang ab (er hatte von einem anderen Zulieferer eine HW entwickeln lassen die für Windows gedacht war). Am Ende sagte ein "Dennis" zu uns "wir wollten dem Kunden nur zeigen dass Windows kacke ist!"
A. K. schrieb: > P. W. schrieb: >> Warum nutzen Firmen eigentlich Storage-Systeme für zig tausende Euro für >> "wenige" Terabyte wenn man die Platten im Mediamarkt doch für schmales >> Geld bekommt? > > Wärst du sehr schockiert, zu erfahren, dass sie beides nutzen? ;-) > > Also gut, nicht direkt Mediamarkt, aber wir haben stückzahlmässig viel > mehr Lowend-QNaps als Netapps. iih und iiih :D bei uns sind die popelspeicher noch in der minderheit. schau dir mal nimble (unbedingt nicht nur all flash, auch hybrid) oder von mir aus pure an. mir schleierhaft, wie netapp noch immer so eine verbreitung haben kann.
Lucas N. schrieb: > mir schleierhaft, wie netapp noch immer so eine verbreitung haben kann. Weil das Zeug funktioniert, und weil jeder Umstieg von einer funktionierenden Lösung auf eine andere Lösung erhebliche Kosten allein des Umstiegs wegen hervorruft.
A. K. schrieb: > Lucas N. schrieb: >> mir schleierhaft, wie netapp noch immer so eine verbreitung haben kann. > > Weil das Zeug funktioniert, und weil jeder Umstieg von einer > funktionierenden Lösung auf eine andere Lösung erhebliche Kosten allein > des Umstiegs wegen hervorruft. naja irgendwann ist die kiste EOL und dann muss man ja nicht dasselbe wieder kaufen ohne sich umzuschauen. aufwändiger wirds halt wenn man von FC auf iSCSI wechseln muss oder andersrum oder von block storage auf nfs oder andersrum. aber pure und nimble preis/leistung ist absolut irre. und beides hersteller mit erwiesenen 99,99999% uptime oder mehr über die gesamte installed base.
Lucas N. schrieb: > naja irgendwann ist die kiste EOL und dann muss man ja nicht dasselbe > wieder kaufen ohne sich umzuschauen. Es geht bei solchen Entscheidungen nicht nur um die Hardware. Sondern beispielsweise auch darum, ob es sinnvoll ist, Knowhow und Erfahrungen alle paar Jahre komplett wegzuwerfen und neu aufzubauen. Das musst du nämlich auf die Beschaffungskosten oben draufrechnen. Ebenso die Kosten (bzw die Zeit) für Datenmigration, die zwischen verschiedenen Systemen aufwändiger sein kann, als zwischen gleichen. Das wissen die Anbieter natürlich auch. Weshalb es in den reinen Anschaffungskosten stets billiger ist, jedesmal das Pferd zu wechseln. Wechsel von der Konkurrenz gibt weit bessere Rabatte.
:
Bearbeitet durch User
A. K. schrieb: > Lucas N. schrieb: >> naja irgendwann ist die kiste EOL und dann muss man ja nicht dasselbe >> wieder kaufen ohne sich umzuschauen. > > Es geht bei solchen Entscheidungen nicht nur um die Hardware. Sondern > beispielsweise auch darum, ob es sinnvoll ist, Knowhow und Erfahrungen > alle paar Jahre komplett wegzuwerfen und neu aufzubauen. Das musst du > nämlich auf die Beschaffungskosten oben draufrechnen. Ebenso die Kosten > (bzw die Zeit) für Datenmigration, die zwischen verschiedenen Systemen > aufwändiger sein kann, als zwischen gleichen. schon klar, bin nicht seit gestern erst in der IT ;-) man muss aber auch schauen was man potentiell gewinnen kann. know how aufbau geht gegen null bei nimble und pure. das sind next gen hersteller ohne altlasten. inbetriebnahme ist in etwa so einfach wie die einer qnap oder synology und bedienen kann das ding ein kleinkind. raidgruppen und raidlevel? entscheidungen über hotspares? fehlanzeige, wird dir abgenommen. ein diskpool, triple parity, ssd ist read cache only dh keine redundanz und fertig ist die kiste. leg luns an und steck expansion shelfs (sofort einsatzbereit) dran bis du schwarz wirst :-P und dann hast du ne grundlast von 20k iops (mixed random und seq, verschiedene blocksizes) drauf und dann startet storage vmotion mit weiteren 10k iops und 1GByte/s seq read und du merkst auf dem system null impact. so muss das ;-)
Lucas N. schrieb: >> Also gut, nicht direkt Mediamarkt, aber wir haben stückzahlmässig viel >> mehr Lowend-QNaps als Netapps. > > iih und iiih :D Was stört dich denn so an QNAP? Als NFS-Datensenke für Backup-Blobs sind die durchaus brauchbar. Die Hauptarbeit bei der Installation besteht im Grunde darin, die ganze mitgelieferte Bloatware abzuschalten.
> Das wissen die Anbieter natürlich auch. Weshalb es in den reinen > Anschaffungskosten stets billiger ist, jedesmal das Pferd zu wechseln. > Wechsel von der Konkurrenz gibt weit bessere Rabatte. gut das ist überall so und sache des einkaufs, den stammlieferanten auch mal unter druck zu setzen mit der konkurrenz.
A. K. schrieb: > Lucas N. schrieb: >>> Also gut, nicht direkt Mediamarkt, aber wir haben stückzahlmässig viel >>> mehr Lowend-QNaps als Netapps. >> >> iih und iiih :D > > Was stört dich denn so an QNAP? Als NFS-Datensenke für Backup-Blobs sind > die durchaus brauchbar. Die Hauptarbeit bei der Installation besteht im > Grunde darin, die ganze mitgelieferte Bloatware abzuschalten. jaa ist eh ok als datengrab. aber irgendwann hat man halt auch 10 von den kisten rumstehen... und dann migrier das zeug mal auf ne neue wenn die im begriff ist sich aufzulösen nach x jahren..
Lucas N. schrieb: > raidgruppen und raidlevel? entscheidungen über hotspares? fehlanzeige, > wird dir abgenommen. ein diskpool, triple parity, ssd ist read cache > only dh keine redundanz und fertig ist die kiste. leg luns an und steck > expansion shelfs (sofort einsatzbereit) dran bis du schwarz wirst :-P Ich beziehe mich nicht auf das isolierte Speichersystem. Sondern auf die ganze Umgebung, der Zusammenarbeit verschiedener Systeme. Speichersysteme werden ja nicht bloss einfach mal so hingestellt, sondern werden von einem Sammelsurium verschiedensten Serversysteme unterschiedlichsten Alters mit verschiedenen Zugriffsmethoden genutzt. Von einem Wechsel eines zentralen Speichersystems können folglich viele andere Systeme betroffen sein, die dann ebenfalls umgestellt werden müssen. Ich habe wirklich nichts gegen Systemumstellung. Aber es sollte sich lohnen. Wenn man mit einer bestehenden Lösung Probleme hat, kann eine andere Lösung sinnvoller sein, BTDT. Personelle Ressourcen stehen aber nicht unbegrenzt zur Verfügung, also muss man in die Überlegungen mit einfliessen lassen, worin man seine Zeit versenkt. Das tut man folglich dort, wo es kneift, und nicht dort, wo es bisher funktionierte. Dass Netapp nicht allein selig machend ist, brauchst du mir nicht zu sagen. Die Struktur der Subsysteme mit ihren Verbindungen ist jenseits direkter lokaler Verdrahtung ein wenig schräg. Das war es schon vor etlichen Jahren und es ist ihnen immer noch nichts besseres eingefallen. Besondere Kreativität im Hardwareaufbau ist nicht zu erkennen, wohl auch nicht beabsichtigt (die verstehen sich mehr als Software-Bude, die zwangsläufig auch die Hardware dazu verkaufen muss ;-).
Lucas N. schrieb: > jaa ist eh ok als datengrab. aber irgendwann hat man halt auch 10 von > den kisten rumstehen... und dann migrier das zeug mal auf ne neue wenn > die im begriff ist sich aufzulösen nach x jahren.. Sind ein wenig mehr als 10. Aber eine pro Lokation, so läppert sich das. Weshalb das auch nicht weniger wird. Bisher sind die Dinger ausserdem sehr stabil. Aber wenn da mal Neues nötig wird - da ist Ersatz wirklich einfach, die sind durch alles austauschbar, was NFS kann.
> Ich beziehe mich nicht auf das isolierte Speichersystem. Sondern auf die > ganze Umgebung, der Zusammenarbeit verschiedener Systeme. > Speichersysteme werden ja nicht bloss einfach mal so hingestellt, > sondern werden von einem Sammelsurium verschiedensten Serversysteme > unterschiedlichsten Alters mit verschiedenen Zugriffsmethoden genutzt. > Von einem Wechsel eines zentralen Speichersystems können folglich viele > andere Systeme betroffen sein, die dann ebenfalls umgestellt werden > müssen. > > Das tut man folglich > dort, wo es kneift, und nicht dort, wo es bisher funktionierte. klingt aber auch ein bisschen nach stillstand, musst du doch zugeben? wer weiß wo überall potential schlummert, personalressourcen für andere dinge freizubekommen? ich bin halt verwöhnt davon, dass bei uns mittlerweile fast alles homogen mit vsphere virtualisiert ist. 5HE nimble ins rack, 4x 10G und 2x Strom dran, einbinden, Datastores anlegen und feddich. schon haste 80TB mehr platz. ob da jetzt pure, nimble, synology, qnap, HPE MSA, 3Par, AX4-5i oder gar win storage server (würg) draufsteht ist mir dann im endeffekt eigentlich auch ziemlich wurst. wenn man natürlich tausend verschiedene systeme und zugriffsarten hat, wirds anstrengend. standardisierung ist der schlüssel zur effizienz...
@A.K. Schockt mich sogar kein Stück weit. Been there, done that. Ich meinte zwar eher die externe USB-Festplatte, aber grundsätzlich trifft das auf das kleine NAS ja auch zu. Hier läuft so ein Teil, bei vielen Bekannten im Home- oder Small-Business Umfeld läuft sowas, ich habe die Dinger aber genauso im professionellen Bereich eingesetzt. Viel einfacher kann man Speicherplatz ohne besondere Verfügbarkeits- oder Performanceanforderungen eigentlich nicht bereitstellen. Wenn wir allerdings über räumliche Trennung, Failover, Deduplizierung, FibreChannel-Konnektivität oder auch einfach nur die IOps einer nennenswerten VM-Umgebung sprechen, sind wir aus der NAS-Schiene nunmal raus. Das muss man den "Entscheidern" aber auch erstmal verklickern wenn die nur die besagte USB-Festplatte kennen und jetzt richtig viel $ für ein Speichersystem los machen sollen das doch nicht größer ist als die tolle neue 2TB-Festplatte mit USB aus dem Prospekt letzte Woche. (Man sieht: Das ist schon ein paar Tage her ;-) ) Jede Technik hat ihren Use-Case und so wie das klingt (10 Arbeitsplätze, Aushilfs-ITler, kennt nicht den Unterschied zwischen AP und Router) bestehen jetzt eher nicht die Anforderungen ein Rechenzentrum aufzubauen. So ein Mittelgroßes NAS mit einem kleinen räumliche getrennten als Backup-Replika welches neben Datengrab auch DC spielt, könnte gar keine so schlechte Lösung sein. Wenn Applikationen mit Serverdiensten dazu kommen ggf. ersetzt oder ergänzt durch einen Microserver oder ein kleines Blech. Oder ganz anders: ausreichend dicke und stabile Leitung nehmen und die Umgebung von einem geeigneten Anbieter per SaaS aus der Wolke nehmen. Man kann sich damit einen Großteil der administrativen Manpower für die OnPremise Betreuung sparen und erkauft sich (hoffentlich) einigermaßen Problemlosigkeit. Dazu braucht es neben dem Anbieter nur eine redundante Anbindung mit einem geeigneten Router/VPN-Gateway, meist eine geeignete Appliance... Ach, Moment - das hatten wir doch schon! Also was red' ich? Dennis hat ja schon angesagt dass die Beratungsdienstleistung vom Systemhaus nicht gebraucht wird. Er wird das schon deichseln...
Lucas N. schrieb: > klingt aber auch ein bisschen nach stillstand, musst du doch zugeben? Klar. In diesem Sektor. Die Bewegung gibts woanders. > wer weiß wo überall potential schlummert, personalressourcen für andere > dinge freizubekommen? Wenn du mir erklärst, wie man mit Nimbles so nebenbei auch beispielsweise die DSGVO gleich mit erledigt, SAP- und CRM-Systeme umstellt, Mailsysteme grundrenoviert, Netz und Firewalls redesigned, etc, dann werden sofort Ressourcen frei. ;-) > ich bin halt verwöhnt davon, dass bei uns mittlerweile fast alles > homogen mit vsphere virtualisiert ist. Kommt mir bekannt vor. Seit ESX 1.5 dabei. > wenn man natürlich tausend verschiedene systeme und zugriffsarten hat, > wirds anstrengend. standardisierung ist der schlüssel zur effizienz... Jau. Nur eine Sorte Brötchen zu backen hat klare Vorteile, also was die technische Seite der Herstellung angeht. Leider will jeder Kunde andere und deshalb wird das Leben für den Bäcker etwas komplizierter als es sein könnte.
:
Bearbeitet durch User
Ich möchte noch nachtragen: Was auf der Büchse drauf steht ist mir auch völlig hupe. Die wichtigste Erkenntnis überhaupt: ALLE Hersteller kochen nur mit Wasser. Ich habe noch keinen gefunden der NICHT irgendeine Macke hätte. Ekelig wird es wenn die eine Seite sagt: "Hüh, Vorwärts, wir haben Patches/Updates" und dann irgendein Betonkopf angewackelt kommt und rum weint "Aber das können wir nie nicht auf gar keinen Fall updaten wegen zertifiziert!". Klar kann es mal Wachstumsschmerzen geben. Aber wenn man das Zeug verrotten lässt, hat man die nacher nur zusammen auf einen Schlag. Ist übrigens auch egal ob vSphere (ihr meintet doch "GSX" ;-)), Hyper-V oder XenServer. Ebenfalls BtDt.
P. W. schrieb: > Ich möchte noch nachtragen: > > Was auf der Büchse drauf steht ist mir auch völlig hupe. > Die wichtigste Erkenntnis überhaupt: ALLE Hersteller kochen nur mit > Wasser. Ich habe noch keinen gefunden der NICHT irgendeine Macke hätte. pure macht all flash mit dedup. keine große sache, mit vollen hosen ist leicht stinken. wo wirklich, WIRKLICH magic drinsteckt, sind die hybrid systeme mit riesen sata disks (nl sas) und ssd cache. unglaublich was die da an performance rausholen. die kochen mit wasser mit ganz viel einhornstaub.
>> wer weiß wo überall potential schlummert, personalressourcen für andere >> dinge freizubekommen? > > Wenn du mir erklärst, wie man mit Nimbles so nebenbei auch > beispielsweise die DSGVO gleich mit erledigt, SAP- und CRM-Systeme > umstellt, Mailsysteme grundrenoviert, Netz und Firewalls redesigned, > etc, dann werden sofort Ressourcen frei. ;-) geht mich nix an, wenn das einen meiner bereiche treffen sollte kommt da was von oben oder von der seite und dann wird das halt umgesetzt. ;-) > >> ich bin halt verwöhnt davon, dass bei uns mittlerweile fast alles >> homogen mit vsphere virtualisiert ist. > > Kommt mir bekannt vor. Seit ESX 1.5 dabei. mag sein aber andererseits beschwerst du dich, dass umstellen so schwer ist? versteh ich jetzt net, wenn das meiste virtuell ist, wo ist dann das problem? datastore ist datastore... > Jau. Nur eine Sorte Brötchen zu backen hat klare Vorteile, also was die > technische Seite der Herstellung angeht. Leider will jeder Kunde andere > und deshalb wird das Leben für den Bäcker etwas komplizierter als es > sein könnte. bist du jetzt eigentlich interne it oder systemhaus?
P. W. schrieb: > Wenn wir allerdings über räumliche Trennung, Failover, Deduplizierung, > FibreChannel-Konnektivität oder auch einfach nur die IOps einer > nennenswerten VM-Umgebung sprechen, sind wir aus der NAS-Schiene nunmal > raus. Eine Netapp ist auch nur eine NAS. Mit räumlicher Trennung, Failover, Deduplizierung, FC-Konnektivität und jeder Menge VMware (sinnvollerweise auf NFS, nicht auf LUNs). Aber immer noch NAS. ;-) Also grad andersrum wie es seit jeher EMC und andere traditionelle Storages halten, bei dem die NAS-Funktion oben auf dem Blockstore drauf sitzt. Bei Netapp sitzt statt dessen der Blockstore oben auf der NAS drauf. Das ist nicht in jeder Anwendung das Ei des Kolumbus, aber so arg viel Blockstore ists eh nicht mehr, wenn die VMs auf NFS liegen.
> Ist übrigens auch egal ob vSphere (ihr meintet doch "GSX" ;-)), Hyper-V > oder XenServer. > > Ebenfalls BtDt. gsx, alter :D :D bleib mir fern mit dem hyper-v müll, das management davon ist ja wohl DER albtraum. failover cluster manager ist ihgitt und der scvmm ist auch net besser. hatte die tage erst das vergnügen mit so dämlichen mühlen. bläh. zu xen server kann ich nix sagen...
Lucas N. schrieb: > datastore ist datastore... Nope, das ist er nicht. Beispielsweise nicht, wenn die Backups von Exchange-Servern oder der VMware Datastores über Snapshot- und Mirror-Mechanismen der Netapps abgewickelt werden. Wenn man dann den Storage wechselt, dann baut man diesen Kram gleich mit um. > bist du jetzt eigentlich interne it oder systemhaus? Interne IT, wieso?
:
Bearbeitet durch User
A. K. schrieb: > Lucas N. schrieb: >> datastore ist datastore... > > Nope, das ist er nicht. Beispielsweise nicht, wenn die Backups von > Exchange-Servern oder der VMware Datastores über Snapshot- und > Mirror-Mechanismen der Netapps abgewickelt werden. die backupsoftware wird ja wohl nicht nur netapp für storagensnapshots unterstützen, oder? was benutzt ihr da? > >> bist du jetzt eigentlich interne it oder systemhaus? > > Interne IT, wieso? weil du von kunden gesprochen hast. meintest du interne kunden? was gehen die denn euer storage an, bietet ihr nicht nur services an und die technische realisierung im hintergrund ist euer bier? scheine wirklich gesegnet zu sein, bei uns macht die it die technischen vorgaben.
:
Bearbeitet durch User
Lucas N. schrieb: > weil du von kunden gesprochen hast. meintest du interne kunden? Ebendiese. > was gehen die denn euer storage an, Nichts. Aber die Anwendungen gehen die schon was an. Und die beeinflussen wiederum die Komplexität des Gesamtsystems. Ich hatte das in den Kontext von Standardisierung gestellt. Grösseres Bild, nicht nur auf Storage bezogen.
:
Bearbeitet durch User
Lucas N. schrieb: > Überall wo Kundendaten gespeichert sind, sollte man nicht rumspielen. > Von deinen Beispielen ist gerade mal die Kneipe ein geeigneter Kandidat > für eine Fritzbox. Naja, eine vernünftig eingerichtete Fritzbox(+USB-Festplatte) dürfte für 90% aller kleinen Handwerksbetriebe bereits eine echte Verbesserung darstellen. Noch einmal in der Woche die Backups auf DVD brennen und ins Schließfach legen und es ist eine Verbesserung für 95% aller Kleinbetriebe. Traurig, aber ist wirklich so.
Lucas N. schrieb: > die backupsoftware wird ja wohl nicht nur netapp für storagensnapshots > unterstützen, oder? was benutzt ihr da? Am Beispiel eines Exchange-Servers: Die erste Stufe läuft als Agent auf dem Exchange-Server und sorgt dafür, dass die Netapp einen konsistenten Snapshut der LUNs der Exchange-Stores erzeugt. Diese Software ist folglich von Netapp selbst, es arbeiten beide Systeme dabei zusammen, Exchange und Netapp. Die zweite Stufe mirrored diese versionierten Snapshots auf eine sekundäre billige SATA-Netapp, inkrementell. Effektiv werden dabei nur Deltas übertragen und gespeichert. Auf dem Sekundärspeicher liegen viele Snapshots, auf dem Primärspeicher nur wenige. In der dritten Stufe landet die jeweils letzte Version vom Sekundärspeicher zwecks Disaster-Recovery in "Absprache" mit IBMs Tivoli Storage Manager auf Band. Das ist die einzige Stelle, wo in grösserem Umfang Datenbewegung stattfindet. Bei VMware siehts ähnlich aus. Auch hier kann man VMware mit Netapp kooperieren lassen, um möglichst konsistente Snapshots der VMware Datastores zu erhalten und für ein ziemliches Weilchen im Sekundärspeicher aufheben zu können. Da läuft folglich ein Netapp-Agent auf dem VCenter Server, mindestens um die Snapshots bis ins Gastsystem hinein ruhigstellen zu können. Es sind 2 Sorten Snapshots im Spiel, die von VMware und die von Netapp. Mit einem andersartigen Storage müssen solche Backup-Verfahren komplett neu implementiert werden. Ja, man kann das auch anders machen, um solche Bindungswirkung zu reduzieren, aber verliert als Gegenleistung Synergieeffekte.
:
Bearbeitet durch User
A. K. schrieb: > Lucas N. schrieb: >> die backupsoftware wird ja wohl nicht nur netapp für storagensnapshots >> unterstützen, oder? was benutzt ihr da? > > Am Beispiel eines Exchange-Servers: > > Die erste Stufe läuft als Agent auf dem Exchange-Server und sorgt dafür, > dass die Netapp einen konsistenten Snapshut der LUNs der Exchange-Stores > erzeugt. Diese Software ist folglich von Netapp selbst, es arbeiten > beide Systeme dabei zusammen, Exchange und Netapp. > > Die zweite Stufe mirrored diese versionierten Snapshots auf einen > Sekundärspeicher, inkrementell. Effektiv werden dabei nur Deltas > übertragen und gespeichert. Auf dem Sekundärspeicher liegen viele > Snapshots, auf dem Primärspeicher nur wenige. > > In der dritten Stufe landet die jeweils letzte Version vom > Sekundärspeicher zwecks Disaster-Recovery in "Absprache" mit IBMs Tivoli > Storage Manager auf Band. > > Bei VMware siehts ähnlich aus. Auch hier kann man VMware mit Netapp > kooperieren lassen, um möglichst konsistente Snapshots der VMware > Datastores zu erhalten und für ein ziemliches Weilchen im > Sekundärspeicher aufheben zu können. Da läuft folglich ein Netapp-Agent > auf dem VCenter Server, mindestens um die Snapshots bis ins Gastsystem > hinein ruhigstellen zu können. > > Mit einem andersartigen Storage müssen solche Backup-Verfahren komplett > neu implementiert werden. Ja, man kann das auch anders machen, um solche > Bindungswirkung zu reduzieren, aber verliert als Gegenleistung > Synergieeffekte. das können andere so auch, zb zufällig auch nimble. nur brauchst du da keine software am vcenter server, nur im exchange. bei pure weiß ichs nicht. nimble macht auch storage replica mit deltas, läuft bei uns schon ewig und fehlerfrei. impact gleich null (auf der leitung und in der performance)... uijeh TSM :D gut, da ist man eher noch mehr verhaftet als beim storage. wir haben commvault :-)
A. K. schrieb: > Lucas N. schrieb: >> weil du von kunden gesprochen hast. meintest du interne kunden? > > Ebendiese. > >> was gehen die denn euer storage an, > > Nichts. Aber die Anwendungen gehen die schon was an. Und die > beeinflussen wiederum die Komplexität des Gesamtsystems. Ich hatte das > in den Kontext von Standardisierung gestellt. Grösseres Bild, nicht nur > auf Storage bezogen. abgesehen vom sql cluster läuft bei uns eigentlich alles im vmfs, selbst Software Aus Pakistan. somit auch keine komplexität. ein paar wenige kisten gibts mit lokalem storage, die sind aber die ausnahme.
Das Management war bis vSphere 6 ganz fein. Zumindest die Grundlegenden Aufgaben konnten ja auch nach 5.1 noch mit dem Client gemacht werden. Ein funktionierendes Webinterface mit HTML5 hätten die Jungs auch vor 3 Jahren schon einbauen können... Mir ist klar, dass in Zeiten von Cloud alles Web-Manageable sein muss. Aber es ist schwer jemanden davon zu überzeugen die Bequemlichkeit eines klassischen (flott reagierenden!) Clients gegen eine Flash-Konsole zu tauschen. Bei Hyper-V isses halt... interessant. Interessanterweise geht auch MS den Weg und seit sie ihr Azure betreiben merken sie selbst dass Mausschubsen sich nicht besonders gut Scripten lässt. Siehe Powershell. Exchange-Cluster aufsetzen? Ging über das Webinterface zwar einigermaßen, aber mit der Shell ist man schneller und präziser. Da die meisten aber sowieso MS im Haus haben und für ihre Hypervisoren auch Datacenter-Lizenzen brauchen ist der Schluss zu "können wir uns die VMware-Kosten nicht sparen?" naheliegend. Beim XenServer kenn ich keinen der den freiwillig für seine produktive Serverlandschaft benutzt. Also, es würde schon gehen. Aber das will doch keiner... Wenn man aber VDI mit Citrix macht wird der plötzlich seeeehr interessant weil in der Lizenz drin. Klar, kann man auch mit VMware oder Hyper-V machen. Dann kann es aber auch passieren dass VMware (wieder) auf den Trichter kommt "Wir begrenzen die Basislizenz mal auf x GB Ram". Und nein, Oracles Gedöns ist keine Alternative auch wenn die das freilich ganz anders sehen. Niemand, der nicht wirklich muss, nimmt freiwillig Oracle, Java (ja, ist auch Oracle) oder Flash. Egal was man nimmt - bezahlen tut man bei allen lang und schmutzig. Apropos kleine Betriebe: Die Tage hatte ich mit einer Bude zu tun die ihr offenbar Computererstelltes Formular mit Kästchen im Abstand von etwa 2 Schreibmaschinenschritten gestaltet haben und bei denen das Telefon noch "Fernruf" heißt. Da hat der Computer zwar auch schon Einzug gehalten, aber die Arbeitsweise entspricht offenbar immer noch der aus den 70ern.
Lucas N. schrieb: > das können andere so auch, zb zufällig auch nimble. Habe ich auch nicht anders erwartet. Nur addiert sich jede solche Lösung zur Komplexität einer Umstellung. > uijeh TSM :D gut, da ist man eher noch mehr verhaftet als beim storage. > wir haben commvault :-) Läuft seit bald 2 Jahrzehnten. Auf einem Server, der auch nicht viel jünger ist (POWER4). Das darfst du gerne "verhaftet" nennen. ;-) Commvault wurde uns auch angeboten, als Ersatz dafür, zusammen mit Veeam. Erwies sich als ziemlich teuer, teurer als die Alternativlösung mit TSM und/oder Nakivo (bisschen sowas wie Veeam, aber billiger). Das Nakivo sichert bereits in den Aussenstellen die dortigen VMwares auf ebendiese QNAPs.
:
Bearbeitet durch User
Power 4? Uiuiuiuiui... Da wurde das AS400 Emblem noch in Granitblöcke gemeißelt, oder? Ich halte mit RM400 (Siemens Nixdorf, 90er Jahre) gegen. Verschrottet 2015 - unter Protest der letzten zwei Anwender aber mit gaaaaanz viel Genugtuung.
P. W. schrieb: > Power 4? Uiuiuiuiui... Da wurde das AS400 Emblem noch in Granitblöcke > gemeißelt, oder? Nö, andere Richtung. IBM hatte eine Weile 2 getrennte Prozessorentwicklungen für AIX gleichzeitig. Eine technisch/wissenschaftliche Schiene mit POWER4, und daneben die mit den AS400 direkt verwandten für Datenbanken und ähnlichen Kram optimierten RS64 Prozessoren. Die hatten wir allerdings auch.
A. K. schrieb: > Lucas N. schrieb: >> das können andere so auch, zb zufällig auch nimble. > > Habe ich auch nicht anders erwartet. Nur addiert sich jede solche Lösung > zur Komplexität einer Umstellung. das is schon richtig. > >> uijeh TSM :D gut, da ist man eher noch mehr verhaftet als beim storage. >> wir haben commvault :-) > > Läuft seit bald 2 Jahrzehnten. Auf einem Server, der auch nicht viel > jünger ist (POWER4). Das darfst du gerne "verhaftet" nennen. ;-) > CV gibts hier erst seit 12 jahren, läuft aber auch (klarerweise). das einzige was wohl nicht läuft, is seagate/veritas/symantec/veritas backup hexe xD power4... gibts da überhaupt noch support und wenn ja wie lang??! > Commvault wurde uns auch angeboten, als Ersatz dafür, zusammen mit > Veeam. Erwies sich als ziemlich teuer, teurer als die Alternativlösung > mit TSM und/oder Nakivo (bisschen sowas wie Veeam, aber billiger). Das > Nakivo sichert bereits in den Aussenstellen die dortigen VMwares auf > ebendiese QNAPs. tsm kenn ich eigentlich nur vom hörensagen. hat aber durchaus seinen ruf, braucht man da ein doktorat für die bedienung? :D lokales DR auf qnap/synology/whatever haben wir eigentlich kaum, sichern alles mit commvault dedup in die zentrale... CV dedupt ja gottseidank über alles hinweg und nicht nur innerhalb der jobs wie veeam. fun fact: CV kostet nicht wirklich mehr als veeam.
P. W. schrieb: > Das Management war bis vSphere 6 ganz fein. Zumindest die Grundlegenden > Aufgaben konnten ja auch nach 5.1 noch mit dem Client gemacht werden. > Ein funktionierendes Webinterface mit HTML5 hätten die Jungs auch vor 3 > Jahren schon einbauen können... > jo das mit dem client ist ein drama. trotzdem kommt keine konkurrenzlösung an den vcenter server dran, imho. > Mir ist klar, dass in Zeiten von Cloud alles Web-Manageable sein muss. > Aber es ist schwer jemanden davon zu überzeugen die Bequemlichkeit eines > klassischen (flott reagierenden!) Clients gegen eine Flash-Konsole zu > tauschen. > das war sicher keine glanzleistung von vmware. es ging glaub ich auch darum dass reine linux buden nicht extra fürs management eine windows kiste hochziehen müssen. > > Bei Hyper-V isses halt... interessant. Interessanterweise geht auch MS > den Weg und seit sie ihr Azure betreiben merken sie selbst dass > Mausschubsen sich nicht besonders gut Scripten lässt. > Siehe Powershell. Exchange-Cluster aufsetzen? Ging über das Webinterface > zwar einigermaßen, aber mit der Shell ist man schneller und präziser. > Da die meisten aber sowieso MS im Haus haben und für ihre Hypervisoren > auch Datacenter-Lizenzen brauchen ist der Schluss zu "können wir uns die > VMware-Kosten nicht sparen?" naheliegend. > hyper-v ist für mich ein nogo, leider. windows ist halt ein fettes allrounder schwein, auch wenn du es als core ohne gui installierst. du trittst dir damit alle macken und komplexität ein inkl wartungsaufwand eines normalen windows systems ein, auch wenn das nur ein hypervisor sein soll. esxi ist da viel spezialisierter und damit auch um universen simpler und schlanker. damit auch weniger fehlerquellen. das management von hyper-v wie gesagt ein scherz im vergleich zum vcenter. > > Beim XenServer kenn ich keinen der den freiwillig für seine produktive > Serverlandschaft benutzt. Also, es würde schon gehen. Aber das will doch > keiner... > Wenn man aber VDI mit Citrix macht wird der plötzlich seeeehr > interessant weil in der Lizenz drin. Klar, kann man auch mit VMware oder > Hyper-V machen. Dann kann es aber auch passieren dass VMware (wieder) > auf den Trichter kommt "Wir begrenzen die Basislizenz mal auf x GB Ram". > > > Und nein, Oracles Gedöns ist keine Alternative auch wenn die das > freilich ganz anders sehen. Niemand, der nicht wirklich muss, nimmt > freiwillig Oracle, Java (ja, ist auch Oracle) oder Flash. > xen server kenn ich wie gesagt gar net, wird wohl auch einen grund haben... oracle kann mit seinem müll sowieso abfaulen, von mir aus... > Apropos kleine Betriebe: Die Tage hatte ich mit einer Bude zu tun die > ihr offenbar Computererstelltes Formular mit Kästchen im Abstand von > etwa 2 Schreibmaschinenschritten gestaltet haben und bei denen das > Telefon noch "Fernruf" heißt. > Da hat der Computer zwar auch schon Einzug gehalten, aber die > Arbeitsweise entspricht offenbar immer noch der aus den 70ern. die brauchen sich wenigstens nicht um spectre und meltdown und cloud-kacke kümmern. müssen glückliche leutchens sein ;-)
:
Bearbeitet durch User
Lucas N. schrieb: > power4... gibts da überhaupt noch support und wenn ja wie lang??! Nicht von IBM, aber die Hardware wird von Drittfirma supported. Fliegt aber demnächst raus, weil der Bandroboter aus der Wartung läuft und das AIX 5.3 / TSM 5.5 schon seit Jahren nicht mehr supported ist. Wollten wir seit Jahren aktualisieren, wurde immer wieder aufgeschoben, weils halt noch funktioniert und immer was anderes wichtiger war. > tsm kenn ich eigentlich nur vom hörensagen. hat aber durchaus seinen > ruf, braucht man da ein doktorat für die bedienung? :D Für die Verhältnisse seiner Entstehungszeit ist es komplex. Für heutige Verhältnisse nicht. > lokales DR auf qnap/synology/whatever haben wir eigentlich kaum, sichern > alles mit commvault dedup in die zentrale... Komplettrestore einer VM macht über 4 MBit/s bestimmt viel Spass. ;-) Drum zweigleisig. Lokale QNAP für schnellen Restore von VMs. Falls die Bude abbrennt gibts noch inkrementelle Netzreplikation, aber da erwartet keiner, dass es eine Stunde später wieder läuft.
:
Bearbeitet durch User
A. K. schrieb: > Lucas N. schrieb: >> power4... gibts da überhaupt noch support und wenn ja wie lang??! > > Nicht von IBM, aber die Hardware wird von Drittfirma supported. Fliegt > aber demnächst raus, weil der Bandroboter aus der Wartung läuft und das > AIX 5.3 / TSM 5.5 schon seit Jahren nicht mehr supported ist. Wollten > wird seit Jahren aktualisieren, wurde immer wieder aufgeschoben, weils > halt noch funktioniert und immer was anderes wichtiger war. > klingt nicht so als hätte da einer mal eine risikobewertung gemacht und klingt nach einer it die zu einem guten teil mit feuerwehr spielen beschäftigt ist :-O >> lokales DR auf qnap/synology/whatever haben wir eigentlich kaum, sichern >> alles mit commvault dedup in die zentrale... > > Komplettrestore einer VM macht über 4 MBit/s bestimmt viel Spass. ;-) > > Drum zweigleisig. Lokale QNAP für schnellen Restore von VMs. Falls die > Bude abbrennt gibts noch inkrementelle Netzreplikation, aber da erwartet > keiner, dass es eine Stunde später wieder läuft. 4 Mbit? ich weiß nicht, wovon du sprichst :D aber ja, hier und da gibts auch lokales DR storage. überwiegend aber nicht, da sind die leitungen fett genug.
@Lucas: Xen war als kernelbasierter Hypervisor mal eine reine Linux-Sache. Später wurden dann auch andere Gastsysteme unterstützt. Vor einigen Jahren ist Citrix dann auf den Trichter gekommen sowas zu brauchen und hat die kurzerhand gekauft. Man hat jetzt nix verpasst wenn man die Software nicht kennt, aber funktionieren tut sie schon. Es schadet nicht mal eine halbe Stunde nen Blick drauf zu werfen um zu wissen was einen erwartet. Damit hatten wir dann die Situation dass man virtuelle Desktops mit Windows-Maschinen auf XenServer über ICA von Citrix kaufen^Wlizensieren konnte. Zu der Zeit musste alles Xen heißen, deswegen wurde das Produkt XenDesktop und er PresentationServer zu XenServer umbenannt. Parallel dazu gab es VMware View auf ESX (wurde dann in Horizon umbenannt). Clientbetriebssystem: Windows Nur Microsoft hatte zunächst nix, ist dann aber auch irgendwann nachgezogen mit Windows-VMs auf HyperV und RDP. Horizon funktionierte gut und war einfach bereitzustellen, hatte aber Bandbreitenanforderungen wie im LAN, daher für WAN nicht geeignet. XenDesktop war saukompliziert und teuer - dafür aber mit ICA Protokoll. Die Microsoft-Lösung hab ich nie probiert. Wo die heute alle sind weiß ich auch nicht. Außer Citrix hat von den Produkten keins mehr meinen Weg gekreuzt.
L. N. schrieb: > klingt nach einer it die zu einem guten teil mit feuerwehr spielen > beschäftigt ist :-O Nicht wirklich. Zwar ist eine Aussenstelle wirklich schon mal abgebrannt, aber das Feuer löschten andere. Die Daten waren noch da, der Server stank allerdings nach lang getragenen Raucherklamotten. Ich ziehe es ansonsten vor, den Kram so zu bauen, dass ein Desaster unterhalb Flugzeugabsturz überhaupt nicht dazu führt, dass man ein Komplett-Recovery der Firmen-IT braucht. Nur eben bei einer Aussenstelle, aber da ist es harmlos. Und noch nie nötig gewesen. Aber so eine 1-Disk QNAP ist nun wirklich keine teure Angelegenheit.
:
Bearbeitet durch User
P. W. schrieb: > @Lucas: Xen war als kernelbasierter Hypervisor mal eine reine > Linux-Sache. Später wurden dann auch andere Gastsysteme unterstützt. > Vor einigen Jahren ist Citrix dann auf den Trichter gekommen sowas zu > brauchen und hat die kurzerhand gekauft. > Man hat jetzt nix verpasst wenn man die Software nicht kennt, aber > funktionieren tut sie schon. Es schadet nicht mal eine halbe Stunde nen > Blick drauf zu werfen um zu wissen was einen erwartet. vielleicht mal irgendwann :D > Damit hatten wir dann die Situation dass man virtuelle Desktops mit > Windows-Maschinen auf XenServer über ICA von Citrix kaufen^Wlizensieren > konnte. Zu der Zeit musste alles Xen heißen, deswegen wurde das Produkt > XenDesktop und er PresentationServer zu XenServer umbenannt. ich kenne shitrix nur von früher, daher kam dann der liebevolle spitzname. > Parallel dazu gab es VMware View auf ESX (wurde dann in Horizon > umbenannt). Clientbetriebssystem: Windows da geht mittlerweile auch linux > Nur Microsoft hatte zunächst nix, ist dann aber auch irgendwann > nachgezogen mit Windows-VMs auf HyperV und RDP. kenne keinen der das nutzt :D gibts aber sicher auch ein paar verrückte. > Horizon funktionierte gut und war einfach bereitzustellen, hatte aber > Bandbreitenanforderungen wie im LAN, daher für WAN nicht geeignet. > XenDesktop war saukompliziert und teuer - dafür aber mit ICA Protokoll. > Die Microsoft-Lösung hab ich nie probiert. > Wo die heute alle sind weiß ich auch nicht. Außer Citrix hat von den > Produkten keins mehr meinen Weg gekreuzt. MS ist shitrix immer ein paar jahre hinterher, horizon ist mittlerweile genial, die arbeiten nun mit PCoIP, kaum bandbreitenanforderungen.
A. K. schrieb: > L. N. schrieb: >> klingt nach einer it die zu einem guten teil mit feuerwehr spielen >> beschäftigt ist :-O > > Nicht wirklich. Zwar ist eine Aussenstelle wirklich schon mal > abgebrannt, aber das Feuer löschten andere. Die Daten waren noch da, der > Server stank allerdings nach lang getragenen Raucherklamotten. > > Ich ziehe es ansonsten vor, den Kram so zu bauen, dass ein Desaster > unterhalb Flugzeugabsturz überhaupt nicht dazu führt, dass man ein > Komplett-Recovery der Firmen-IT braucht. Nur eben bei einer > Aussenstelle, aber da ist es harmlos. Und noch nie nötig gewesen. Aber > so eine 1-Disk QNAP ist nun wirklich keine teure Angelegenheit. damit meinte ich nicht sprichwörtlich die feuerwehr im sinne von brände löschen sondern eher, dass es so scheint als würde bei euch oft erst was getan werden wenn man schon mit dem rücken zur wand steht, sei es aus personalmangel oder warum auch immer.
L. N. schrieb: > damit meinte ich nicht sprichwörtlich die feuerwehr im sinne von brände > löschen Ach nee. ;-) > sondern eher, dass es so scheint als würde bei euch oft erst was > getan werden wenn man schon mit dem rücken zur wand steht, sei es aus > personalmangel oder warum auch immer. Hardware ist noch in Wartung, Software unverändert, die Netapp auch. Es funktioniert seit vielen Jahren. Die Wahrscheinlichkeit, dass bei einer Änderung Probleme auftreten, ist üblicherweise grösser als bei keiner Änderung. Abgesehen von Security-Fragen. Aber keine Sorge, Renovierung ist in der Pipeline.
A. K. schrieb: > Hardware ist noch in Wartung, Software unverändert, die Netapp auch. Es > funktioniert seit vielen Jahren. Die Wahrscheinlichkeit, dass bei einer > Änderung Probleme auftreten, ist üblicherweise grösser als bei keiner > Änderung. Abgesehen von Security-Fragen. > > Aber keine Sorge, Renovierung ist in der Pipeline. Pass auf dass du keinen Ärger mit dem Denkmalschutzamt bekommst ;-D
Raspberry schrieb: > Läute! Ihr schweift ab Stimmt. Dänkmalschutz passt nicht zu Funk und Fäldern. Danke!
:
Bearbeitet durch User
Denkt an den Brandschutz! Ihr müsst auch Brandmelder installieren! Und passende Kabelkanaele
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.