5 Typische Probleme einer Open-Source Software nach 2010
Wir stehen kurz vor dem Abschluss eines weiteren Jahrzehnts Open Source und was für eine lange, seltsame Reise es war. Wenn man sich die Vorhersagen von 2009 ansieht, hat niemand die geringste Ahnung, dass GitHub die Softwareentwicklung für immer (und für alle) ändern würde oder dass Microsoft vom Open-Source-Paria zum weltweit größten Anbieter oder zu einer Vielzahl anderer dramatischer Änderungen übergehen würde wurde in einem Jahrzehnt zur neuen Normalität, die alles andere als normal war.
Wir sind jetzt alle offene Sourcing-Unternehmen, während wir das Jahrzehnt abrunden. Lassen Sie uns auf einige der wichtigsten Open Source-Innovationen zurückblicken, die uns hierher gebracht haben.
Eine wolkige Zukunft
Open Source machte natürlich vor 2010 Schlagzeilen, aber viele der Open Source-Nachrichten waren damals „Freie Software“ vs. „Open Source“ -Religiöse Kriege und Klagen gegen Linux. Um Open-Source-Software auszuführen, haben Sie immer noch die IT angerufen, um Server bereitzustellen (oder ein Ersatzlaufwerk verwendet, das gerade zufällig unter Ihrem Schreibtisch lag). Die Wolke hat das alles verändert.
Plötzlich mussten Entwickler keinen Hall-Pass von der IT erhalten, um ihren Open Source-Code auszuführen. So wie Open Source Entwickler vom Kauf / der gesetzlichen Genehmigung befreit hat, hat auch die Cloud die Entwickler von der Reibung befreit, die der Hardware innewohnt.
Die Wolke war jedoch nur der Wegbereiter. Wie Corey Quinn hervorhebt, ist die Infrastruktur zu „Open Source“ geworden, allerdings nicht, weil die Clouds selbst unter einer Open Source-Lizenz verfügbar sind: „Sie läuft auf Clouds, aber ich kann mir einen Terraform-Plan oder eine serverlose Konfiguration von GitHub holen und habe eine Es läuft, um es fast augenblicklich zu testen. “
Open Source-Lizenzen und der Swipe-and-Go-Zugriff auf Cloud-Hardware haben die Produktivität von Entwicklern in einer Weise gesteigert, die Anfang 2010 möglicherweise nur schwach sichtbar war (schließlich wurde AWS 2006 gestartet), die jedoch erst bis in das Jahrzehnt hinein umgesetzt wurde.
Es ist Git ganz unten
„Das größte Ereignis, das Open Source im letzten Jahrzehnt widerfahren ist, ist die Einführung der Pull-Anfrage durch GitHub“, erklärt Tobie Langel. „GitHub bot Open Source-Sichtbarkeit und verringerte die Voraussetzungen für die Zusammenarbeit um eine Größenordnung.“
Diese Zusammenarbeit war immer das Herzstück des Open-Source-Versprechens, aber erst, als GitHub den sozialen Aspekt der Codierung freigeschaltet hat, wurde sie Realität.
Wie Michael Uzquiano argumentiert: „Wir hatten zuvor Versionskontrolle, aber GitHub / Lab machte es wirklich einfach, Code zu teilen, Dinge auszuprobieren und Ideen einzubringen. Kommentare, Probleme, Genehmigung – das Versprechen, dass Code offen ist, wurde wirklich erfüllt. “Git wurde im letzten Jahrzehnt nicht geboren, aber wie die Cloud boomte es erst in den 2010er Jahren.
Docker und die Containerrevolution
Wie die Versionskontrolle und Git wurden Container nach 2010 nicht neu geprägt. Tatsächlich tauchte die Idee für Container bereits 1979 mit Chroot auf (obwohl Samen schon früher gepflanzt wurden).
Doch wie Steven Vaughan-Nichols behauptet, hat Docker die Container wirklich zum Leben erweckt: „Docker, genauer gesagt, Docker Tech hat Container von einer obskuren Technologie zu einer tragenden Säule des heutigen Software-Konsums gemacht. Es hat alles verändert. “
Alles? Ja, zumindest für die Entwicklung von Unternehmensanwendungen, und nicht, weil es eine coole neue Art ist, über Virtualisierung nachzudenken. Wie Gordon Haff erklärt, waren „Pre-Docker / Kubernetes-Container nur eine andere Partitionierungstechnik.“
Die eigentliche Magie begann, als Docker die Entwicklererfahrung nagelte, und von da an fuhr er fort: „Die Dinge sind in den Schneebällen“, was zu einer vollständigen Neuerfindung der CI / CD-Pipeline und mehr führte. Vor einem Jahrzehnt hatte noch niemand von Docker und Kubernetes gehört. Im vergangenen Monat waren mehr als 13.000 Menschen auf der KubeCon 2019 angereist, um diese moderne Anwendungswelt zu erkunden, die Docker mitgestaltet hat.
Datenwissenschaft wird zum Mainstream
Big Data war schon immer ein Traum für „den Rest von uns“ (d. H. Unternehmen, die nicht Google sind), und vor 2010 wurden ernsthafte Anstrengungen unternommen, um es zu verwirklichen. Wir haben Data Marts seit den 1970er Jahren, Business Intelligence etwas später, und Roger Magoulas hat 2005 sogar den Begriff „Big Data“ geprägt.
Aber keiner von ihnen hat wirklich vorausgesehen, wie groß diese Daten sein könnten und wie kritisch Datenwissenschaftler und Dateningenieure werden würden, bis weit in das Jahrzehnt hinein, in dem Apache Hadoop (2008 erstellt) auf den Markt kam und dann schnell verdrängt wurde durch eine Welle von NoSQL-Datenbanken und andere Open-Source-Infrastruktur.20
Heutzutage ist die Infrastruktur, in der große Datenmengen gespeichert und gestreamt werden, hauptsächlich Open Source.
Ob moderne Datenbanken wie MongoDB, die das Arbeiten mit unstrukturierten Daten erleichtern, oder verschiedene Tools wie Apache Kafka, die zum Verschieben von Daten verwendet werden, Open Source die moderne Datenwissenschaft ermöglichten, und fast alles geschah in den letzten 10 Jahren.
Darüber hinaus sind die Tools, mit denen wir Daten analysieren, zunehmend Open Source. Tatsächlich war ein Großteil der Werkzeuge (wie TensorFlow) von Tag 1 an Open Source, nicht ein Hagel Mary! Pass von einem proprietären Anbieter, der versucht, das schwindende Schicksal von t wiederzubeleben