Die Geschichte der best Systeme GmbH

Aus alt mach neu

Aus alt mach neu

Die Zeit bleibt nicht stehen. Das wissen insbesondere jene, die schon etliche Jahre in der IT-Branche tätig sind. Geräte werden immer schneller und kleiner. Den Zusammenhang hat als erster Herr Gordon Moore formuliert als das Moorsche Gesetz, und zwar schon 1965: demnach verdoppelt sich die Anzahl der Komponenten auf einem integrierten Schaltkreis etwa alle zwei Jahre. Obwohl schon mehrfach das Ende dieses Gesetzes prophezeit wurde (kleiner als eine einzelne Lage Atome geht nun mal nicht), gilt es noch heute.

Für die Computerwelt bedeutet das: es gibt laufend schnellere und bessere CPUs und Speicherbausteine. Auch die Kapazität von Festplatten verdoppelt sich etwa im selben Abstand. Aber auch Software wächst kräftig mit: so gut wie jedes neue Release eines Betriebssystems, einer Datenbank, eines Application Servers will mehr CPU, mehr Speicher, mehr Plattenplatz haben. Eine der wesentlichen Eigenschaften von Software ist ähnlich der eines Gases: Software füllt immer den ganzen ihr angebotenen Raum vollständig aus.

Für den Betreiber von Rechenleistung bedeutet das, dass neben Software auch regelmäßig die Hardware auf den neuesten Stand gebracht werden muss. Das geht nur bedingt durch Upgrades innerhalb des Systems: irgendwann sind alle Speicherbänke und alle CPU-Sockel belegt und keine größeren Speicherriegel oder schnellere CPUs mehr zu bekommen. Also muss neue Hardware beschafft werden. Man spricht dabei je nach Größe der Hardware auch gerne mal von Fork-Lift-Upgrades: die alte Hardware muss mit dem Gabelstapler aus dem Rechenzentrum raus gefahren werden, weil sie so groß und schwer ist. Neben schnelleren CPUs und größerem Speicherausbau ist es häufig auch so, dass Wartungsverträge ab dem vierten Jahr ihrer Laufzeit deutlich teurer werden. Eine Verlängerung um weitere drei Jahre ist oft genug teurer oder nur unwesentlich günstiger, als neue Hardware einschließlich drei Jahre Wartung zu kaufen. Doch Vorsicht: die Kosten einer Migration rechnet der Hardware-Hersteller selten mit in die Kalkulationsbeispiele mit ein.

Weil die best Systeme ihre Kunden gerne über viele Jahre am Markt begleitet, haben wir in der Vergangenheit zahlreiche solcher Migrationen durchgeführt. Wir unterstützen unsere Kunden dabei auf dem gesamten Weg, beginnend mit der Erfassung der Leistungsanforderungen. Daraus erstellen wir ein Migrationskonzept einschließlich der für die Leistungsanforderung erforderlichen (neue) Hardware. Natürlich nehmen wir die neue Hardware in Betrieb und begleiten dann die Migration der Daten oder führen diese Migration im Kundenauftrag komplett eigenständig aus. Selbstverständlich liefern wir auch den Wartungsvertrag zur neuen Hardware und leisten dafür Support.

Es gibt Kunden, wo wir über die Jahre schon auf die dritte oder gar vierte Generation Hardware migriert haben. Die längste Kette gibt es bei einem IT-Dienstleister in München. Einer unserer ersten Aufträge dort war die Migration von Fujitsu PrimePower auf Sunfire 6800. Später ging dann der Weg weiter über SunFire E20k, und Fujitsu M5000 bis hin zu Oracle SPARC T4 Servern. Umgekehrt zur ständigen Leistungssteigerung wird die Hardware an sich mit jedem Schritt kleiner. Die Leistungsdichte steigt um ein Vielfaches. Eine Steigerung der Rechenleistung um mehr als das 10-fache über zwei CPU-Generationen ist dabei keine Seltenheit. Die Entwicklung bleibt nicht stehen, Oracle hat schon mehrere Nachfolge-Generationen auf der Roadmap stehen bzw. sogar schon als Testmuster im Labor. Dabei dreht Oracle nicht nur weiter an der Leistungsschraube, sondern bringt auch neue Ideen in das Silizium. Hardware und Software wachsen zunehmend näher zusammen.

2005 - Kinofilme für die Nachwelt

2005 - Kinofilme für die Nachwelt

Natürlich ist die IT-Welt nicht die einzige, die sich ständig weiter entwickelt und Innovationen hervorbringt. Die Digitalisierung brachte insbesondere auch in der Welt des Kinofilms so einige Umbrüche in der Art, wie Kinofilme entstehen und wie sie ins Kino kommen. Diese Entwicklung wird auch noch eine Weile so weiter gehen.

Etwa Mitte 2005 trat ein nicht mehr ganz kleiner Mittelständler mitten aus München an die best Systeme heran mit der Aufgabe, eine Speicherumgebung aufzubauen für die Bearbeitung und Archivierung von digitalem Filmmaterial. Dabei ging es nicht nur um fertige Kinofilme: Eine Abteilung des Kunden befasste sich mit der digitalen Nachbearbeitung von Szenen und Film-Sequenzen. Neben Farbkorrektur und Schnitt spielen digitale Special Effects eine große Rolle. Der Kunde arbeitet also mit dem Rohmaterial, das von Regisseur und Kameramann angeliefert wird.

Herausforderung im Projekt war die Datenmenge und die Vorgabe, zwei oder noch besser drei Video-Sequenzen von mehreren Sekunden bis Minuten Film in Echtzeit vom Storage-System an die jeweiligen Arbeitsplätze streamen zu können. Ein Einzelbild in der damals für Kinofilmbearbeitung üblichen 2K-Auflösung konnte je nach Bildformat schnell 50 MB und größer werden. Eine Sekunde Film hat 25 solcher Bilder. Die mittlerweile in der Kinofilm-Technik übliche Auflösung von 4K vervierfacht die Dateigröße!

Angegangen sind wir diese Aufgabe mit Quantum StorNext Filesystem. Das Filesystem erlaubt zeitgleiches Mounten auf allen Clients per SAN. Damit kann ein einzelner Client in SAN-Geschwindigkeit auf das Disk-Backend zugreifen. Um die vergleichsweise schlechte I/O-Leistung der SATA-Platten im Backend auszugleichen, haben wir das Dateisystem über viele Hardware-RAIDs mit jeweils 16 SATA-Disks verteilt, so dass bei einem Zugriff viele Spindeln zeitgleich tätig werden können. Besonderer Vorzug von StorNext verglichen zu anderen verteilten Filesystemen wie IBM GPFS oder Sun SAM-QFS ist die Unterstützung einer Vielzahl von Client-Betriebssystemen, darunter auch Microsoft Windows und Apple OS X. Und das waren die Betriebssysteme, mit denen die Farbkorrektur-Stationen und Schnittplätze liefen.

Neben dem schnellen Zugriff wurde im weiteren Projektverlauf deutlich, dass auch ein Archivsystem geschaffen werden muss, in dem die fertigen Kinofilme digital aufbewahrt werden sollten. Neben dem fertigen Film sollten auch die Rohdaten mit in das Archiv, man weiß ja schließlich nie... Für diese Aufgabe hat sich bei der best Systeme in zahlreichen Projekten über Jahre das Archiving-Filesystem Sun SAM-FS bewährt, das dann auch hier zum Einsatz kam. Und natürlich brauchte es auch eine große Tape-Library, im konkreten Fall das damalige Flagschiff von StorageTek. Das System ist immer noch in Betrieb, die Library wurde zwischenzeitlich mehrfach um Stellplätze erweitert.

Herausforderungen dieser Art würde man auch heute noch sehr ähnlich angehen. Natürlich bleibt die Welt nicht stehen, aber Dateisysteme entwickeln sich erfahrungsgemäß langsamer weiter als der Rest. Für viele Unternehmen sind digitale Daten der Kern der Wertschöpfung geworden, die man bervorzugt auf stabilen, ausgereiften Dateisystemen ablegt. Ähnliches gilt für die Archiv-Welt. Beide Welten sind mittlerweile auch bei Linux angekommen und auch dort stabil und zuverlässig. Es ist deshalb heute nicht mehr zwingend notwendig, teure und proprietäre Hardware einzusetzen.

best Systeme hat sich wieder einmal an die vorderste Front des Ausprobierens begeben und viele verschiedene Lösungen angeschaut und getestet. Übrig blieb Versity. Das ist die Portierung des bekannten SAM-QFS auf Linux. Ausgangsbasis ist der von Sun noch kurz vor der Übernahme durch Oracle veröffentlichte Quellcode zu SAM-QFS. Zu den Gründern von Versity zählt u. a. auch die Hauptentwicklerin von SAM-QFS, Harriet Coverston.

2004 - In geheimer Mission - Datenlöschung bei Fremdzugriff

2004 - In geheimer Mission - Datenlöschung bei Fremdzugriff

Nicht erst, seit man von der Spionage und Wirtschaftsspionage fremder Staaten und ausländischer Firmen weiß, spielt eine sichere und vertrauliche Behandlung von Daten eine Rolle. Ungefähr Anfang 2004 trat eine große technische Institution mit Sitz in München an uns heran mit einem etwas ungewöhnlichen Plan: man wollte eine möglichst kompakte und hochsichere Zelle bauen, mit der man sicher vor Angriffen aller Art Zertifikate auf Smartcards schreiben konnte. Die theoretischen Vorüberlegungen waren bereits abgeschossen und der Kunde baute schon fleißig an einem Prototypen. Im wesentlichen waren zwei Kriterien zu erfüllen: Die Zelle in der die Signatur erstellt und auf eine Smartcard aufgebracht wurde, musste abhörsicher sein, sowie Mechanismen enthalten, die bei einem physischen Angriff bereits erstellte Signaturen zerstörte. Mechanisch hatte man z. B. einen doppelwandigen Metallkäfig konstruiert, mit Unterdruck zwischen den beiden Wänden. Ein Angriff auf die Wand würde Luft einströmen lassen, und so die dielektrischen Eigenschaften der Konstruktion verändern. Das konnte man messtechnisch Erfassen und entsprechende Schritte einleiten: Alarmierung und Anlage sofort abschalten.

Das rechnende Herzstück der Anlage sollte ein SPARC-Server werden. Um auch hier den Sicherheitsanforderungen gerecht zu werden, viel die Wahl auf den damals größten Netra-Server. Die Netra-Reihe wurde nach Vorgaben und Spezifikationen von Telekommunikations-Anbietern gebaut und zeichnete sich z. B. durch besondere Erschütterungsfestigkeit aus (Erdbeben) und war für einen weitaus größeren Temperaturbereich zugelassen. Daneben gab es von diesen Modellen auch welche mit Gleichstrom-Netzteilen und alle Komponenten, auch PCI-Karten und Netzteile, waren von vorne zugänglich.

Um den gehobenen Sicherheitsansprüchen auch auf Seite des Betriebssystems entgegen zu kommen, sollte "Trusted Solaris" installiert werden. Die Wurzeln dafür gehen zurück bis 1990, als Sun das erste Mal eine spezielle, eigenständige Solaris-Version auf den Markt brachte, die sicherheitstechnischen Anforderungen des amerikanischen Militärs und amerikanischer Behörden umsetzte. Ab 1995 hieß diese Solaris-Reihe dann "Trusted Solaris". Neben vielen Sicherheitsmechanismen im System selbst konnte man ein Trusted Solaris
z. B. auch nur direkt am System installieren und es musste dazu ein Monitor und eine Tastatur angeschlossen sein. Netzwerkinstallationen oder Installation ohne Grafikkarte, nur per serieller Verbindung, waren hier nicht vorgesehen. Was uns damals vor eine Herausforderung stellte, hatten doch die Netra-Systeme absichtlich keinen Anschluss für die Tastatur nach außen geführt. Weil für diese Systeme aber Motherboards benutzt wurden, die auch in herkömmlichen Sun-Workstations verbaut waren, war auf dem Board selbst ein Tastaturanschluss vorhanden. Wir haben damals dann zur Installation kurzerhand das Board aus dem Gehäuse genommen und "fliegend" installiert.

Weil Trusted Solaris immer auch von amerkanischen Behörden zertifiziert wurde, was für IT-Begriffe ein sehr langer Prozess ist, gab es nicht von jeder Solaris-Version ein Trusted Solaris Variante. Und nach Erscheinen von Trusted Solaris 8 wurde die getrennte Entwicklung einer sicherheitszertifizierten Solaris-Variante dann ganz eingestellt.

Trotzdem muss man auch heute nicht auf Sicherheit verzichten. Viele Komponenten und Konzepte von Trusted Solaris sind seit Solaris 10
Bestandteil der regulären Solaris-Variante. Erfolgreiche Konzepte wie "Role Based Access Control" (RBAC) oder Solaris-Zonen waren z. B. ursprünglich nur Teil von Trusted Solaris. Mittlerweile sind diese Konzepte aus Solaris nicht mehr weg zu denken.

Wer den Sicherheitsgrad eines Systems darüber hinaus aber weiter verbessern will oder muss, für den gibt es die "Solaris Trusted Extensions". Das sind Softwarepakete, die man jederzeit nachträglich installieren kann, und die aus einem herkömmlichen Solaris quasi ein Trusted Solaris machen. Damit bekommt man dann so Dinge wie "labeled security" oder ein hierarchisches, auf Trusts beruhendes Rechte- und Zugriffsmodell. Damit wird es dann z. B. unmöglich, von einer als geheim eingestuften Text-Datei per copy & paste Informationen in ein geringer klassifiziertes Dokument zu übertragen. Auch Datenströme im Netzwerk können so klassifiziert, mit Labels versehen und dann im Netzwerkstack entsprechend behandelt werden. Und weil es nur ein paar Pakete sind, die nachinstalliert werden können, ist auch der Installationsaufwand im Vergleich zu Trusted Solaris um ein Vielfaches geringer.

Und übrigens: auch ohne Trusted Extensions hat Solaris schon eine Menge Funktionen, die zur Sicherheit eines Systems beitragen:
Oracle Solaris 11 Security Technologies

2003 - Ingenieure treiben es gerne bunt

2003 - Ingenieure treiben es gerne bunt

Die Firmengeschichte der best Systeme GmbH beginnt mit dem Verkauf von Sun Workstations. Wer die aktuelle Newsletter-Reihe bisher aufmerksam verfolgt hat, weiß das. Schnell haben wir unser Portfolio und unsere Dienstleistung ins Rechenzentrum verlagert, ohne Grafik-Workstations jemals komplett den Rücken zuzukehren.

Zum Jahreswechsel 2003/2004 haben wir eine größere Stückzahl solcher Sun Grafik-Workstations auf Basis von Sun SPARC an einen Industriebetrieb im Münchner Umland geliefert, der diese Systeme im Bereich CAD einsetzte und damit Maschinenbauteile entwarf und entwickelte. Die Workstations waren mit Sun XVR-600 und XVR-1200 Grafikkarten bestückt, und dienten vorwiegend zur Echtzeit-Darstellung von 3D-Modellen aus CAD-Daten. Die Karten waren insbesondere mit Textur-Speicher und entsprechenden Render-Engines bestückt. Angesprochen wurden die Karten per OpenGL, dessen Wurzeln übrigens Anfang der 90er bei der Grafikschmiede SGI liegen.

Die Technologie der Grafikkarten und der Computergrafik ist seitdem natürlich nicht stehen geblieben. Das wissen vor allem Gamer, Konstrukteure und Entwicklungsingenieure im Maschinenbau. Die Auflösung der 3D-Modelle wurde immer feiner, Schattierungen immer lebensechter. Aber moderne Grafikkarten können noch mehr: CPUs auf Grafikkarten (auch GPU genannt) haben im Vergleich zu aktuellen CPUs ein Vielfaches an einzelnen Recheneinheiten (Cores), die parallel arbeiten und die man sich natürlich auch für andere Aufgaben als Grafikdarstellung nutzen kann. So gibt es für aktuelle Grafik-Subsysteme von NVIDIA auch Anwendungen im Bereich der Kryptologie oder Datenbanken, die sehr schnell eine Vielzahl von Queries parallel abarbeiten können. Damit wird es möglich, auch große Datenbestände in sehr kurzer Zeit nach der sprichwörtlichen Nadel im Heuhaufen zu durchsuchen. Solche Grafikkarten werden tatsächlich ausschließlich als Co-Prozessor genutzt und haben keine Möglichkeit, einen Monitor anzuschließen. Es gibt sie sogar als 19"-Einheit, die man dann gleich neben den Server ins Rack schraubt. Erinnert sich eigentlich noch jemand an den Intel 80387, den mathematischen Co-Prozessor für die 386er-Linie von Intel, den man damals z. B. für AutoCAD brauchte?

Die best Systeme entwickelt auch selbst aktiv Anwendungen für Grafikkarten. Im Forschungsprojekt T-Cam4Live geht es z. B. um die graphische Darstellung von Daten aus einem Mikroskop, das mit ultrakurzen Laserimpulsen arbeitet. Die gelieferten Signale müssen in einer Vorstufe "entrauscht" werden, um dann mit Hilfe von Grafik-Prozessoren aus vielen Einzelbildern eine Videosequenz zu erstellen. Damit kann man z. B. Nervenzellen beim Arbeiten zusehen. Grundlage der Entwicklung ist hier ein NVIDIA Tesla System.

Moderne Grafikkarten (mit einem Monitor-Anschluss) haben bis zu knapp 3000 Cores und 12 GB Speicher auf der Grafikkarte. Vor zehn Jahren hatte man gerade mal einen Core und knapp ein halbes Gigabyte Speicher auf einer Grafikkarte, was damals als High-End galt und entsprechend teuer war.

Es macht übrigens einen Unterschied bei der Auswahl des Produktes, ob Sie eine Grafikkarte "zum Zocken", für CAD oder als Datenbankrechner einsetzen wollen. Sprechen Sie uns unter info@best.de an!

2002 - Datensicherung in kurzer Zeit - mit Band allein schwer zu schaffen!

2002 - Datensicherung in kurzer Zeit - mit Band allein schwer zu schaffen!

Dass Daten immer mehr werden, ist nicht erst seit zwei Jahren so. Dass eine große Menge Daten an unterschiedlichen Stellen der Unternehmens-IT zu Problemen führen, ist auch bekannt. Auch schon vor zehn Jahren hatte man damit zu kämpfen. Ein häufiges Problem der Zeit: die Backupfenster waren nicht mehr lange genug, um mit herkömmlichen Backup-Methoden in der zur Verfügung stehenden Zeit ein Backup auf Band schreiben zu können.

Eine mögliche Abhilfe: Backup to Disk. Nur leider braucht man dazu abhängig von der Retention Policy und der Datenmenge eine recht große Anzahl Festplatten nebst zugehöriger Festplattensysteme. Unsere Consultants haben sich zu der Zeit Gedanken gemacht, wie man denn vorhandene, herkömmliche Komponenten miteinander so verknüpfen kann,  dass zum einen die Backupfenster wieder ausreichen für ein nächtliches Vollbackup und die Daten zum anderen trotzdem auf Band geschrieben wurden.

Backupsoftware für den Enterprise-Einsatz wusste 2002 noch nichts von hierarchischer Datenhaltung. Das wiederum war die Domäne des Dateisystems SAM-FS (damals noch LSCI Inc., später Sun). Unsere Techniker verknüpften die beiden Komponenten so, dass zunächst ein normales Backup auf einen Disk-Cache anstatt auf Tape geschrieben und in einem zweiten Schritt dann von SAM-FS auf Band weg archiviert wurden. Dieses Konzept haben wir bei mehreren Kunden umgesetzt, wahlweise mit Veritas Netbackup (heute Symantec) oder Legato Networker (heute EMC). In jeden Fall kam für die Verwaltung der Tape-Library ein SAM-FS zum Einsatz. Einer unserer Kunden macht auf diese Weise bis heute sein Backup, natürlich mit zwischenzeitlich mehrfach aktualisierten Software-Komponenten und neuer Bandtechnologie.

Heutzutage hat man verschiedene Möglichkeiten, um mit kurzen, kleinen Backupfenstern umzugehen. So gut wie alle modernen Datei- und RAID-Systeme bieten die Möglichkeit eines Snapshots. Aktuelle Versionen von Backup-Software für den Enterprise-Einsatz können mit einem mehrstufigem Speicherkonzept umgehen (B2D2T - Backup to Disk to Tape) und so direkt selbst alle Komponenten in der Kette steuern. Will oder kann man seine Backup-Software nicht auf ein mehrstufiges Verfahren umstellen, bietet sich zudem die Möglichkeit einer sog. Virtual Tape Library, kurz VTL. Ein solches System verhält sich gegenüber dem Betriebssystem wie eine herkömmliche Tape-Library, arbeitet intern aber auf Festplatten und RAID-Systemen. Schreiben auf Festplatten ist i. d. R. (noch) schneller als auf ein einzelnes Tape.

Kurze Backupfenster sind schon lange keine besonders große Herausforderung mehr. Trotzdem verändert sich natürlich auch die Backup-Welt: virtuelle Maschinen, verteilte Dateisysteme, Netzwerkbandbreiten und Daten in der Cloud sind hier heute die Problemstellungen.

Sprechen Sie uns dazu gerne unter info@best.de an!

2001 - Fertige Datenbank in der Box

2001 - Fertige Datenbank in der Box

Ein Kunde, den die best Syteme GmbH bis heute begleitet, erbringt für seinen Kunden in der Versicherungsbranche RZ-Dienstleistungen. Aus der Historie heraus wurden dort lange Unix-Systeme von Siemens-Nixdorf und später von Fujitsu-Siemens eingesetzt, auf denen SINIX oder Reliant Unix lief. Die best Systeme konnte stückweise Solaris-Maschinen von Sun etablieren, und recht schnell sollte ein zentrales Storage-System neu beschafft werden, denn die EMC war zu klein und zu alt geworden.

Sun hatte damals im Enterprise-Umfeld eine ganz neue Partnerschaft mit Hitachi, was die best Systeme dazu bewog, mit einem StorEdge 9960 ins Rennen zu gehen. Wir bekamen den Zuschlag. Auf dem Storage sollten im wesentlichen Informix-Datenbanken liegen, die möglichst ausfallsicher auszulegen waren. Also fiel unsere Wahl auf Sun Cluster. Problem: es gab für diese noch keine Freigabe der Storage-Systeme.

Damals, als SAN gerade erst Stück um Stück in Rechenzentren einzog, war die Interoperabilität noch nicht so ohne weiteres gegeben und man brauchte für viele unternehmenskritische Software-Produkte eine gesonderte Freigabe für unterschiedliche Storage- und SAN-Komponenten. Getreu ihrem Motto, sich regelmäßig die Nase an brandheißen Dingen blutig zu stoßen, installierte die best Systeme damals den ersten Sun Cluster auf StorEdge 9960 in Europa. Natürlich mit Abnahme und Freigabe durch Sun Service, schließlich sollte die komplette Anlage auch unter Wartung und Support gestellt werden.

In der Zwischenzeit hat sich SAN in der Welt der Rechenzentren etabliert und nahezu alle Hardware- und Software-Komponenten sind untereinander kompatibel. Die Herausforderung heute ist die SAN-Virtualisierung, wo es an vielen Stellen noch sehr genau auf die zueinander passenden Versionen von Storage-Firmware, SAN-Virtalisierung und Hypervisor ankommt.

Schnelle, ausfallsichere Datenbank-Systeme kann man mittlerweile auch als Appliance bekommen. Ihre IT-Abteilung kann sich damit auf die Anforderungen und Herausforderungen innerhalb der Wertschöpfung Ihres Unternehmens konzentrieren, und muss sich nicht mehr groß mit dem Betrieb der Datenbank-Infrastruktur auseinander setzen.


Als Beispiel sei hier eine Oracle Exadata genannt. Oracle nennt diese Art Appliance "Engineered System", weil alle Komponenten aufeinander abgestimmt sind und optimal ineinander greifen. Das System gibt es in verschiedenen Ausbaustufen, um das gesamte Spektrum von kleinen bis zu sehr großen Datenbank-Umgebungen abzudecken. Die Administration erfolgt komplett graphisch per Maus. Wird eine neue Datenbank angelegt, provisioniert und konfiguriert das System im Hintergrund selbständig und automatisch den zugehörigen Storage-Bereich und die Datenbank-Instanz.

Sprechen Sie uns dazu gerne unter info@best.de an!

2000 - Rechenleistung in Handarbeit

2000 - Rechenleistung in Handarbeit

Am Medienstandort Unterföhring wird nicht nur Fernsehen gemacht. Hier wird auch darüber nachgedacht, wie man Inhalte zum Zuschauer bringt. Ein nächster logischer Schritt nach dem digitalen Fernsehen war, Filme auf Bestellung über das Internet an den zahlenden Zuschauer auszuliefern. Bereits 2000 gab es dazu sehr konkrete Pläne und den Ableger eines großen Medienkonzerns, der mit einer Videothek on Demand vor hatte, Geld zu verdienen. Ein solches Vorhaben braucht viel Speicherkapazität und einiges an Rechenleistung.


Und hier kam die best Systeme mit ins Spiel: Gemeinsam mit einigen Firmen, die spezialisiert waren auf IT-Anlagen und Software für Rundfunkanstalten, konnten wir auf die grüne Wiese ein redundantes Rechenzentrum hoch ziehen. Das Rechenzentrum hatte mehrere spezielle Aufgaben außerhalb der "normalen" Unternehmens-IT: Zunächst mussten die Filme automatisiert auf mehrere zur Bandbreite kompatible Datenformate umgerechnet werden. Diese Formate galt es, in einem großen Archivsystem für den späteren Abruf zu speichern. Außerdem sollte natürlich der Web-Service für Bestellung und abrufen der Filme im Rechenzentrum laufen.


Realisiert wurde die Umgebung damals mit viel SPARC-Hardware von Sun Microsystems und zwei Tape Libraries von StorageTek. Die Kollegen der best Systeme haben mit ihrer RZ-Erfahrung alle Systeme montiert, in Betrieb genommen, verkabelt und installiert. Besondere Herausforderung und auch Highlights für die Kollegen waren eine Reihe Sun-Cluster, teilweise mit Oracle OPS (dem Vorläufer des heutigen Oracle RAC) und die Inbetriebnahme zweier Sun Enterprise 10000 mit jeweils mehreren Hardware-Domains.


Auch heute beschäftigen sich hier Kollegen mit der Verarbeitung von Video-Sequenzen. Im Forschungsverbund zu T-Cam4Life arbeiten sie an der Weiterverarbeitung von Mikroskop-Daten in Echtzeit. Hier kommt es darauf an, aus kurzen Lichtblitzen ein sauberes Signal zu erstellen und das schnell an eine GPU Einheit weiterzugeben, um dort aus vielen Einzelbildern die 3D-Ansicht einer arbeitenden Nervenzelle zu berechnen. Neben Know-How in der GPU-Programmierung ist hier vor allem auch Wissen im Hardware-Design und in der FPGA-Programmierung verlangt. Das auf drei Jahre angelegte Forschungsprojekt hat aktuell ungefähr Halbzeit und es zeigen sich die ersten Früchte hartnäckiger Arbeit. Übrigens das zukünftige Produkt des Forschungsprojektes hat schon jetzt einen Preis erhalten:
 
Hugo-Junkers-Preis für weltschnellste Kamera zum beobachten von lebenden Zellen

Aus dem Video on Demand wurde 2000 übrigens leider nichts. Die Firma ging schon wenige Jahre nach der Gründung wieder konkurs. In Zeiten von erst langsam aufkeimendem ADSL waren die Endkunden noch zu schmalbandig angebunden, um Spielfilme in vernünftiger Auflösung über das Internet zu streamen und dafür auch zu bezahlen.

1999 - Gepflegtes Wissen

1999 - Gepflegtes Wissen

Relativ bald nach Start der best Systeme sollte die Geschäftspartnerschaft mit Sun Microsystems GmbH weiter ausgebaut und eine Stufe höher gestellt werden. Es dauerte dann doch ein paar Jahre, bis das umgesetzt werden konnte. In 1999 hatte das Unternehmen zum einen genügend Mitarbeiter, welche die entsprechenden Schulungen bei Sun genossen und darauf folgende Prüfungen erfolgreich absolviert hatten. Damit war die best Systeme auf Sun Enterprise Level 2000 zertifiziert, die höchste Zertifzierung, die es von Sun zum damaligen Zeitpunkt gab. Durch regelmäßige Weiterbildung der Mitarbeiter konnte die best Systeme diesen Status über die gesamte Zeit der Partnerschaft halten und den Status nach dem Aufkauf von Sun durch Oracle auch dorthin übernehmen.

Aber Oracle ist längst nicht der einzige Partner, für dessen Produkte sich die Kollegen in Technik und Vertrieb regelmäßig weiterbilden. Aktuell gibt es Partnerschaften mit über 15 überwiegend bekannten Herstellern im IT-Sektor. Diese Liste unterliegt einem steten Wandel, denn auch wir passen uns dem Markt an und überdenken deshalb auch in regelmäßigen Abständen unsere Geschäftsbeziehungen.

Das Jahr 1999 war auch der Beginn der gewerblichen Ausbildung bei der best Systeme GmbH. Zur Hochzeit der Dotcom-Blase war es schwierig, gute Techniker zu einem fairen Preis zu finden. Also keimte im Laufe des Jahres die Idee auf, sich doch als Ausbildungsbetrieb zu betätigen und Fachinformatiker der Fachrichtung Systemintegration auszubilden. Gesagt, getan und so begann im Herbst 1999 die erste Auszubildende ihre Ausbildung bei der best Systeme. Um den Auszubildenden ausreichend Techniker mit Fachwissen zur Seite zu stellen, haben wir die Anzahl der Azubis immer bewusst klein gehalten. Ziel ist bis heute eine qualitativ hochwertige, abwechslungsreiche Ausbildung mit dem Hintergrund, die ausgelernten Fachkräfte nach ihrer Ausbildung im breiten Spektrum der Kundenanforderungen schnell selbständig einzusetzen. Die meisten unserer Azubis bleiben nach der Ausbildung noch etliche Jahre bei der best Systeme, bevor sie dann weiter ziehen. Nicht wenige davon zu Kunden. Unsere erste Auszubildende war insgesamt immerhin fast zehn Jahre bei uns.


Neben der Ausbildung in technischen und kaufmännischen Berufen, geben wir Schülern der Fachoberschule die Möglichkeit in den Beruf hineinzuschnuppern. Seit über 7 Jahren haben nun schon an die 20 junge Menschen lernen können, ob Sie für den Beruf des Kaufmanns bzw des IT-Technikers geeignet sind. Darüber hinaus ist es auch für Studenten und Absolventen der Hochschulen und Universitäten möglich, sich in interessante technische Themen bei uns einzuarbeiten. Derzeit beschäftigen sich gleich 2 Bachelors mit dem Thema FPGA und GPU-Programmierung. Dahinter steht ein Projekt aus einem Forschungsauftrag des Bundes. Doch darüber mehr auf dem BOSD.

Aus dem Verständnis als Ausbildungsbetrieb sind manche Kollegen auch ehrenamtlich als Prüfer für IT-Berufe an der IHK München und Oberbayern tätig. Das hilft zum einen den eigenen Azubis, weil sie gezielt auf die Abschlussprüfung vorbereit werden können. Auf der anderen Seite kommen so aus der Vielzahl an geprüften betrieblichen Projektarbeiten auch regelmäßig neue Impulse zurück, wie und warum andere Firmen oder Kunden ihre IT aufbauen oder Anforderungen umsetzen. Dieses Wissen kommt damit auch indirekt unseren Kunden zugute.

Ausbildung und Weiterbildung ist für die best Systeme auch weiterhin wichtig, um den Kunden umfassend und hochwertig beraten zu können. Dabei ist zu beobachten, dass der Trend weg geht vom klassischen Training in einem Schulungszentrum und hin tendiert zu sogenanten Web Based Trainings, die bequem und in eigenem Tempo am Schreibtisch absolviert werden können. Und natürlich zertifizieren sich die Mitarbeiter der best Systeme auch heute noch regelmäßig bei den für die Firma wichtigen und zentralen Geschäftspartnern und Lieferanten.

Weil wir uns selbst viel mit Schulungen und Zertifizierungen beschäftigen, haben wir natürlich auch Erfahrung mit Schulungen von Herstellern.

Sprechen Sie uns unter info@best.de an, wenn Sie auf der Suche nach dem passenden Kurs oder dem passenden Kursanbieter sind. Wir unterstüzten Sie gerne!

1998 waren die Restore-Fenster noch 48 Stunden groß...

1998 waren die Restore-Fenster noch 48 Stunden groß...

Der Firmenstandort Unterföhring ist deutschlandweit auch als Medienstandort bekannt. Eines der ersten hier ansässigen Medienunternehmen im Bereich Pay-TV zählte über viele Jahre zum Kundenkreis der best Systeme. Eines der dort betriebenen Systeme war eine Oracle-Datenbank, in der die Sendeplanung für jeweils 48h gespeichert war. Das System war mit manuellem Failover konfiguriert. Und natürlich gab es ein Backup.

Wie wir alle wissen, gehen IT-Systeme kaputt und häufig genug passieren seltsame Dinge. So auch in dieser Sendeplanung: Nach dem Absturz des aktiven Knotens griffen bei der Umschaltung auf das Standby-System kurzzeitig beide Systeme aktiv und schreibend auf die Datenbank zu, was sehr schnell eine korrupte Datenbank zur Folge hatte. Ähnlich schnell stellte sich heraus, dass das Backup aufgrund eines Konfigurationsfehlers des zuständigen Administrators zwar täglich Backups schrieb, die Files auf dem Band aber ständig überschrieben wurden. Das Backup war also unbrauchbar.

Zusammen mit den Technikern der best Systeme machte sich ein eigens aus Großbritannien eingeflogener Oracle-Spezialist an den Resten der Datenbank zu schaffen. Das Zeitfenster zur Reparatur war knapp 48h. Denn so lange lief der Sendeplan, der noch kurz vor dem Crash an das Playout-Center weiter gegeben wurde. Nach Ablauf der 48h würden die TV-Geräte der PayTV Kunden schwarz bleiben. Begleitet von viel Kaffee und Pizza gelang es dem Team schließlich in gerade mal 30 Stunden, mit forensischen Methoden die Datenbank in Handarbeit zu reparieren.

Ein Restore-Fenster von 48 Stunden ist heutzutage für die allermeisten Anwendungen undenkbar. Am besten wäre, man kann im Fehlerfall unmittelbar auf den Zeitpunkt von vor dem Fehler aufsetzen und nach einer kurzen Unterbrechung für den Restore weiter arbeiten, als wäre fast nichts gewesen. Mit modernen Mechanismen für Datenmanagement kommt man diesem Ideal schon sehr nahe.

1997 schrieb best die Cluster-Software selber...

1997 schrieb best die Cluster-Software selber...

Bereits mit Gründung war für die best Systeme klar, sich insbesondere den Servern in Rechenzentren zu widmen. Ein wichtiger Auftrag dazu aus den Anfangsjahren war ein Datenbankserver für ein großes Münchner Medienunternehmen. Die Datenbank sollte Filmrechte verwalten, das möglichst schnell tun und eine gewisse Redundanz bieten, um schnell auf mögliche Ausfälle reagieren zu können. Dem Kunden wäre ein sog. "Cold Standby" genug gewesen: im Fehlerfall hätte man einfach den anderen Server gestartet und die Datenbank wäre in relativ kurzer Zeit wieder online gewesen. Aus dieser Vorgabe resultierte auch, dass die Standby-Maschine weniger üppig ausgestattet sein musste.

Als mögliche Plattform für die Oracle-Datenbank standen eine Sun Enterprise 4000 und eine SGI Origin 2000 zur Debatte. Wir sind in 1997, die Internetblase beginnt gerade, sich langsam aufzupumpen. Aufgrund der geforderten Geschwindigkeit favorisierte die best Syteme den SGI-Server. Gemeinsam mit Oracle führte man für den Kunden Geschwindigkeits-Benchmarks auf der O2000 durch, während Sun mit ihrer E4000 dagegen antrat. Die SGI Konfiguration gewann. Neben den gemessenen Geschwindigkeitsvorteilen war für den Kunden auch das Dateisystem XFS ausschlaggebend, das damals schon Journaling konnte, im Gegensatz zu Suns UFS.

Was das SGI-Betriebssystem IRIX leider nicht hatte, war eine Umgebung oder Erweiterung für HA-Cluster. Also setzten sich die Kollegen der best Systeme hin, und fingen an, eine eigene Cluster-Software für IRIX zu schreiben und zusammen mit dem System auszuliefern. Diese Software wurde unter dem Namen FSFO (kurz für Fail Save Fail Over) später auch auf Solaris portiert, einige Jahre gepflegt und lief erfolgreich und sehr zuverlässig in einer ganzen Reihe von Kundenprojekten. So zuverlässig, dass der eine oder andere Kunde teilweise über Monate nicht bemerkte, dass der Cluster geschwenkt war. Systemmeldungen lesen muss der Administrator eben auch heute noch. Ein wesentlicher Vorteil von FSFO gegenüber vielen anderen Cluster-Umgebungen war, dass in einem Cluster auch unterschiedlich ausgestattet Maschinen betrieben werden konnten. Im hier beschriebenen Projekt war der redundante Knoten eine Origin 200, die im Normalbetrieb zudem als Entwicklungsumgebung benutzt wurde.

Um die Betriebssicherheit eines Solaris-Servers zu erhöhen, gibt es bereits im Betriebssystem Vorkehrungen wie Service Management Framework (SMF) oder Fault Management Architecture (FMA). Auch die Server-Hardware wurde über die Jahre zuverlässiger. Redundante Netzteile und RAID sind sehr offensichtliche Maßnahmen. Funktionen der Firmware und des Chipsatzes wie Chipkill oder ausblenden defekter CPUs während des Power-On Self Test werkeln im Hintergrund.

 

IRIX ist zwischenzeitlich Geschichte, für Solaris gibt es schon lange das Produkt Solaris Cluster. Durch die sehr enge Verknüpfung der Cluster-Umgebung mit dem Betriebssystem-Kern und der Hardware, erreichen Solaris Cluster eine hohe Ausfallsicherheit und im Fehlerfall eine zügige Umschaltung der Resourcen auf einen anderen Knoten. In Kombination mit der Virtualisierung über Zonen oder der Virtualisierung über Logical Domains können sehr einfach auch Applikationen ausfallsicher geclustert werden, für die es keinen Cluster-Agenten gibt. Alternativ bleibt es dem Administrator überlassen, sich eigene Cluster-Agenten zu programmieren. Solche Agenten sind in der Regel ein paar Zeilen Shell-Script, wesentliche Funktionen zur Überwachung von Diensten und zum Einleiten von Cluster-Schwenks bringt das Solaris Cluster gleich direkt mit.

XFS wurde von SGI übrigens im Mai 2000 als Open Source unter GPL freigegeben und ist seit 2001 auch in Linux verfügbar.

1996 - Große Bilder brauchen Platz

1996 - Große Bilder brauchen Platz

Was viele unserer Kunden nicht wissen: die best Systeme pflegt seit vielen Jahren auch eine Partnerschaft mit SGI, die natürlich nicht aus Jux und Dollerei entstand, sondern aus einer konkreten Aufgabenstellung.

Kurz nach der Gründung der Firma übernahm die best Systeme GmbH den Deutschlandvertrieb für die Produkte der Firma Bitplane, allen voran das Produkt "Imaris". Mit Imaris ist es u. a. möglich, einzelne Schichtbilder eines Lasermikroskops so übereinander zu legen, dass ein dreidimensionales Bild entsteht. Bei der Implementierung der dazu notwendigen Optimierungsalgorithmen (z. B. Huygens Dekonvolution) war Bitplane führend und passte so hervorragend zum Portfolio der best Systeme.

 

Zur Berechnung und Darstellung der für damalige Zeit nicht ganz unerheblichen Datenmengen setzte Bitplane auf SGI Grafikworkstations. Etwas besseres zur Bildverarbeitung und Visualisierung gab es Ende der 90er Jahre nicht in bezahlbar. Als Vertriebspartner für die Software wurde die best Systeme dann auch kurzerhand Geschäftspartner der SGI und konnte so zusammen mit der Software auch die passenden Workstations anbieten. Alles aus einer Hand bevorzugen viele Kunden auch heute noch.

Kunden für Imaris zusammen mit den SGI Workstations waren hauptsächlich Forschungsinstitute im Bereich Neurobiologie. Ein wichtiger Kunde aus dieser Zeit ist das Leibniz Institut für Neurobiologie der Universität Magdeburg. Die Geschäftsbeziehungen dort hin bestehen nach wie vor. Aktuell ist das IFN einer der Forschungspartner der best Systeme im Projekt T-Cam4Life. Ziel ist hier, eine Kamera zu bauen, mit der man einzelnen Zellen in Echtzeit beim Arbeiten zusehen kann.

Leider stellt SGI heute keine Grafikworkstations mehr her. Allerdings beschäftigt sich SGI weiterhin mit leistungsfähigen Systemen für wissenschaftliches Rechnen. Neben den HPC-Clustern, von denen es in der Vergangenheit auch einige in die TOP500 der schnellsten Rechner der Welt geschafft haben, liefert SGI das System mit dem derzeit größtmöglichen Speicherausbau für ein sog. Single System Image: die SGI UV. Im Vollausbau bekommt der Kunde mit aktuellen Intel-CPUs stolze 4096 Threads und bis zu 64 TB (!) kohärenten Hauptspeicher in einem einzelnen System. Im Zuge von Big Data wird es damit ein leichtes, die sprichwörtliche Nadel im Heuhaufen zu finden, wenn der Heuhaufen nicht zu einen HPC-Cluster passt.

Nicht jedes Problem lässt sich auf einem System mit verteilten Rechenknoten lösen. Manche Probleme brauchen eben alle Zwischenergebnisse an einem Platz. Recht anschaulich demonstriert das Dr. Eng Lim Goh von SGI in einem Video mit Stroh- statt Heuhaufen. Das System wird betrieben mit einem Suse Linux Enterprise Server 11 (SLES) oder alternativ einem Red Hat Enterprise Linux 6 (RHEL), beide in der handelsüblichen Variante ohne spezielle Modifikationen. Zusätzlich bietet SGI darauf aufbauend passend modifizierte Compiler, Debugger und Programmbibliotheken, wie sie überwiegend im technisch-wissenschaftlichen Bereich benötigt werden.

Die Firma Bitplane und die Software Imaris gibt es übrigens auch heute noch. Allerdings mittlerweile auf Microsoft Windows und Intel-Workstations.

1995 - Auf der Suche nach dem passenden Treiber

1995 - Auf der Suche nach dem passenden Treiber

Zu der Zeit, als die best Systeme gegründet wurde, war IT noch viel Handarbeit. Schnittstellen mussten angepasst, Treiber erweitert, Hardware verkabelt werden. Ein Auftrag aus der Gründungszeit ist den Beteiligten von damals auch heute - 20 Jahre später - noch gut im Gedächtnis: Die IT-Abteilung eines damals großen Medienkonzerns in München kaufte sich zum Zwecke der Datensicherung einen DLT-Stacker. Betrieben werden sollte die Hardware an einem System von Data General unter DG-UX, deren Unix-Derivat.

Herausforderung: es gab vom Hersteller keinen generischen SCSI-Treiber, mit dem man den Stacker hätte ansprechen können, um dediziert Bänder auszuwählen, die man beschreiben oder lesen wollte. Also beauftragte man die best Systeme, hier eine Lösung zu finden. Weil es unter DG-UX keine Möglichkeiten gab, eine passende
Software oder einen passenden Treiber zu schreiben, realisierte man ein Linux-System mit zwei Adaptec SCSI-Adaptern: der eine Adapter hat per Treiber ein Bandlaufwerk in Richtung des DG-UX implementiert, am anderen Adapter war der Stacker angeschlossen. Über den Mittler Linux konnte man im Stacker dann auch die einzelnen Tapes ansprechen. Das alles auf einer Linux-Distribution von Yggdrasil mit Kernel 0.9.

Der Auftrag wurde erfolgreich abgeschlossen, es entwickelte sich daraus eine langjährige Geschäftsbeziehung mit vielen Folgeprojekten, die häufig nicht weniger interessant und herausfordernd waren.

Heute ist die Integration natürlich sehr viel weiter fortgeschritten. Hardware-Hersteller liefern mittlerweile für alle verbreiteten Betriebssysteme passende Treiber, die i. d. R. auch gut dokumentiert sind. Es hilft natürlich, dass die Betriebssystemlandschaft heute weit weniger zersplittert ist, wie das vor 20 Jahren der Fall war.

1994 - Zwanzig Jahre sind in der schnellebigen IT-Branche eine lange Zeit

1994 - Zwanzig Jahre sind in der schnellebigen IT-Branche eine lange Zeit

Die ehemals vier Gründer der best Systeme GmbH arbeiteten vor zwanzig Jahre alle bei einem der damals größten Importeure für Sun-Clones in Deutschland. Das Geschäft lief gut, aber es war damals schon abzusehen, dass dem Vertrieb von Clones nur wenig Zukunft beschieden ist. Bereits zu der Zeit hat sich auch das für die best Systeme so wichtige Motto herauskristallisiert: "Marschieren mit den Marktführern", geprägt von Matthias Gottschalk.

Also sagten sich die vier Kollegen: Lass uns mal besser die Hardware direkt von Sun verkaufen. Gesagt, getan, zum 1. Juli 1994 wurde die Firma von den vier Gründern ins Handelsregister eingetragen. Ganz so einfach wie geplant und gedacht gestaltete sich der Anfang dann aber nicht, galt es doch, Kunden von der Qualität und den im Vergleich zu Clones deutlich höheren Preisen zu überzeugen. Auch damals schon stand bei vielen Kunden Wirtschaftlichkeit vor Technologie, wie das auch heute noch häufig der Fall ist.

Neben dem Verkauf von Sun-Hardware vertrieb die best Systeme von Anfang an Komponenten und daraus aufgebaute, eigene schrankgroße Storage-Systeme, eingeführt unter dem Namen RAIDmaster. Bereits 1994 wurde das erste Exemplar eines solchen RAIDmasters an einen Kunden geliefert. Noch einige Jahre lang verkaufte man neben fertig montierten und konfigurierten RAID-Systemen auch externe Festplattenlaufwerke und einzelne Komponenten an Kunden, die lieber selbst montieren wollten oder Ersatzteile brauchten.

Insgesamt verlief der Firmenstart damals aber zäher als erwartet. Die Rettung nahte, als Sun die ersten /richtigen/ Server baute und verkaufte. Bis dahin waren die als Sun-Server bezeichneten Geräte eigentlich Workstations ohne Grafikkarte und deshalb auch mehr als Abteilungsserver im Einsatz, als im Rechenzentrum. Mit der Server-Linie gelang es der best Systeme ab 1995, den Fuß in die Rechenzentren in und um München zu bekommen, wo sie auch heute noch den Großteil ihrer Kunden betreut. Aufgrund Meinungsverschiedenheiten über den zukünftigen Kurs der Firma verließen bald zwei der vier Gründer das noch junge Unternehmen. Die  Geschäftsführung ist seit dem Sache von Matthias Gottschalk für den kaufmännischen Bereich und Michael Beeck für den technischen Bereich, beide auch Gründer des Unternehmens.

Häufig fragen Kunden, wo denn der Name "best Systeme" her kommt:
Michael Beeck hatte lange vorher schon mal eine eigene Firma namens 'beeck System Technik' in Darmstadt, abgekürzt eben 'best'. Bei Firmengründung der best Systeme 1994 waren die Gründer schlau genug, nachzusehen, ob denn die Domain 'best.de' noch frei wäre. War sie. Und so kam die best Systeme GmbH zu ihrem Namen. Die Internetkosten damals - im wesentlichen Mail und FTP - beliefen sich über den ISDN-Uplink übrigens regelmäßig auf 1500 D-Mark im Monat. In heutigen Zeiten von billigen und schnellen DSL-Anschlüssen kaum mehr vorstellbar. Die Domain wollte uns übrigens schon öfter mal jemand abkaufen.

Mit dem Schwerpunkt RZ-Infrastruktur in Form von Servern und Storage, sowie dem Motto, immer mit den Marktführern zu marschieren, wurde vor 20 Jahren der Grundstein für eine erfolgreiche Firmengeschichte bis heute gelegt.

SEITE DURCHSUCHEN


SOCIAL

Google+

KONTAKT

best Systeme GmbH

Münchner Straße 123A
85774 Unterföhring

Telefon: +49 89 2060 308-0
E-Mail: info@best.de

© 2017 best Systeme GmbH