Technisch

Hier finden Sie Beiträge rund um das Thema Technisch.
Kategoriesuche

Evaluierung einer OpenSource Hot Deployment Software für Java im Softwareentwicklungsprozess

Die Motivation der vorliegenden Masterarbeit ist der Zeitverlust beim wiederholten
Deployment von Java-Anwendungen auf dem Anwendungsserver im Softwareentwicklungsprozess.
In der Arbeit werden verschiedene OpenSource Softwareprodukte, welche versuchen
den Zeitverlust zu minimieren, untersucht und verglichen, mit dem Ziel das qualizierteste Produkt auszuwählen und zu evaluieren. Zwar gibt es bereits eine qualizierte Software mit Namen JRebel, doch diese ist ein kostenintensives, kommerzielles Produkt und somit nicht für jeden erschwinglich.
Für detaillierte Untersuchungen wurde die DCEVM als geeignetstes Softwareprodukt ausgewählt und anschließend evaluiert. Ihre Einrichtung auf den Servern der
dotSource GmbH wurde dokumentiert und eigene Anpassungen erläutert.
Im Rahmen der Arbeit wurden zunächst theoretische Nachforschungen angestellt und anschließend die praktischen Prozesse bei der Einrichtung der Software und dem Programmieren eines eigenen Plugins erläutert.
Gerichtet ist die Masterarbeit an Firmen und Privatpersonen, welche über die Einführung einer OpenSource Hot Deployment Software nachdenken, und an Interessierte, die mehr über das Thema erfahren möchten.
Ebenen der Code-Evolution
Kostenloser Download der gesamten Masterarbeit 

Faltungsnetzwerke zum Kategorisieren von Onlineshop-Webseiten

Die Klassifizierung von Mustern stellt für Maschinen immer noch ein Problem dar. Mit der Einführung des Begriffs “Deep Learning” 2006, wurde der schon für fast tot erklärte Zweig der Neuronalen Netze des Fachbereichs Maschinelles Lernen wieder entdeckt. Dabei wurden speziell in den letzten fünf Jahren große Erfolge mit Faltungs- netzen erzielt. Faltungsnetze zählen zu den “Deep neural networks” und basieren auf Techniken der digitalen Signalverarbeitung. In die- ser Arbeit werden verschiedene Faltungsnetzwerke erstellt und auf ihre Fähigkeiten zu klassifizieren und zu generalisieren überprüft. Bei den zu klassifizierenden Daten handelt es sich um Bilder von Shop-Webseiten, diese sollen in die Kategorien Produktdetailseiten und Nicht-Produktdetailseiten eingeteilt werden. Dabei wird auf Al- gorithmen und Techniken zurückgegriffen, die in Modellen Verwen- dung finden die als State of the Art gelten.
Aufbau Faltungsnetz nach Vaillant
Kostenloser Download der gesamten Bachelorarbeit 

Customer Relationship Management (CRM) – Systemevaluation für Mittelstands- und Großunternehmen

Durch den Aufschwung des Onlinehandels in den letzten Jahren hat sich der Ansatz des Customer Relationship Managements (CRM) in der Praxis fest etabliert. Laut einer Umfrage aus dem Jahr 2015, bei der deutsche Unternehmen befragt wurden, welche bedeutenden IT-Projekte in den nächsten drei Jahren im Vordergrund stehen würden, ist die Etablierung einer CRM-Software mit 25 Prozent knapp hinter der Einführung einer Omnichannel-Lösung sowie der Erneuerung des Warenwirtschaftssystems.
Da die Kundenloyalität heutzutage immer stärker abnimmt und gleichzeitig die Gewinnung von Neukunden im Vergleich zum Erhalt und Ausbau der Bestandskundenbeziehungen überproportional teurer wird, sind Unternehmen zu einer professionellen und systematischen Ausgestaltung ihrer Kundenkontakte gezwungen. Allein durch die Tatsache, dass die Wettbewerber zunehmend über neue CRM-Systeme verfügen und das Umfeld, auch international, immer aggressiver wird, werden Unternehmen zusätzlich unter Druck gesetzt.
Die Chance, sich durch die Einführung eines professionellen CRM-Systems vom Wettbewerb zu differenzieren, mehr Neukunden zu generieren und seine Bestandskunden dauerhaft zu halten, wird somit überlebensnotwendig.
Doch die Evaluation der passenden CRM-Software stellt viele Unternehmen vor Schwierigkeiten. Die Auswahl ist groß und schwer zu überblicken. Seit der Etablierung des CRM-Ansatzes gibt es nicht nur die bekannten US-Hersteller wie Salesforce, Microsoft oder Oracle. Auch europäische Hersteller wie SAP haben sich mittlerweile am internationalen Markt etabliert. Allein in Deutschland gibt es über 150 Anbieter von CRM-Softwarelösungen.
Die Einführung eines CRM-Systems bringt viele Fragen mit sich und muss gut geplant sein. Welche Lösung passt am besten zu den Geschäftsprozessen des Unternehmens? Welche Softwareanbieter gibt es und wie sollte bei der Evaluation eines CRM-Systems vorgegangen werden?
Ziel dieser Bachelorarbeit ist es, ein Vorgehensmodell zu erstellen, welches diese Fragen klärt. Denn laut des Marktforschungsinstituts Gartner scheitern knapp 80 Prozent aller CRM-Projekte und erbringen nicht den gewünschten Mehrwert für das Unternehmen .
Zu Beginn wird ein allgemeines Verständnis und die Grundlagen zum Thema Customer Relationship Management erarbeitet und dabei die verschiedenen Prozesse und Anforderungen eines CRM-Systems erörtert.
Anschließend wird der Evaluationsprozess für eine solche Softwareeinführung näher betrachtet. Dabei wird vorab geklärt, welche Voraussetzungen für ein CRM-System gegeben sein müssen und welche Ziele mit der Einführung überhaupt verfolgt werden sollen. Weiterhin werden die internen Prozesse bei der Evaluation, also die einzelnen Schritte bis zur endgültigen Auswahl des Systemanbieters, dargestellt und die dafür bestmöglichen Vorgehensweisen genauer erläutert. Auch auf häufig auftretende Probleme wird eingegangen, um diese schon zu Beginn der Evaluation beachten zu können und somit später zu verhindern.
Aufgrund der hohen Anzahl von CRM-Softwareanbietern werden zum Abschluss der Bachelorarbeit jeweils die führenden Anbieter für Mittelstands- und Enterpriselösungen vorgestellt und miteinander verglichen. Dabei werden die einzelnen Funktionen gegenübergestellt und die Vor- und Nachteile der jeweiligen Systeme herausgearbeitet.
Prozesse im CRM
Kostenloser Download der gesamten Bachelorarbeit 

Evaluierung von XLT als Framework für automatische Frontendtests im Softwareentwicklungszyklus

Neben den weit verbreiteten Modultests werden in der Softwareentwicklung häufig auch funktionelle Oberflächentests durchgeführt. In Projekten der dotSource GmbH setzen Mitarbeiter der Qualitätssicherung das Oberflächentestwerkzeug »Xceptance LoadTest« (XLT) im Rahmen von regelmäßig durchgeführten automatischen Testfällen ein.
Zusätzlich wird XLT teilweise von Softwareentwicklern eingesetzt, um eigens entwickelte Funktionalität während des Entwicklungsprozesses von Webanwendungen funktional überprüfen zu können. Ein weiterer Teil der Entwickler setzt alternative Testwerkzeuge ein.
Es liegt im Interesse der dotSource, die Nutzung einer einheitlichen Testlösung zu forcieren, um Testaufwände zu reduzieren und somit eine Zeitersparnis sowie Kostensenkung herbeizuführen.
In dieser Arbeit wird das Oberflächentestwerkzeug XLT vorgestellt und evaluiert. Zunächst werden notwendige Definitionen und Grundlagen des Themengebietes Softwaretest und insbesondere des Teilgebietes Oberflächentest vermittelt. Anschließend wird das Werkzeug auf seine Eignung bezüglich der Durchführung von Entwicklertests überprüft. Um dies zu gewährleisten, wird das Testframework anhand eines ausgearbeiteten Kriterienkatalogs mit gegenwärtig auf dem Markt befindlichen Softwarelösungen verglichen. Grundlage des Kriterienkatalogs sind die Anforderungen der dotSource.
Weiterer Bestandteil der Arbeit ist der Vergleich von XLT-Entwicklertests mit Testfällen, welche von der Qualitätssicherung durchgeführt werden. Es sind Nachteile aufgezeichneter Entwicklertests und Anforderungen von Softwaretestern an wiederholt auszuführende Testfälle herauszustellen und darauf basierend nötige Aufwände abzuschätzen, um Entwicklertests im Rahmen dieser Regressionstests weiterverwenden zu können.
Den abschließenden Teil der Arbeit bildet die Auswertung der Ergebnisse beider Problemstellungen. Es werden darauf basierend Aussagen über die Eignung von XLT als Entwicklertestwerkzeug sowie die Weiterverwendbarkeit der auf diese Weise erzeugten Testfälle getroffen.
Capture-Replay-Schema
Kostenloser Download der gesamten Bachelorarbeit 

Weiterentwicklung des Systems zur automatisierten Generierung von virtuellen Maschinen in der dotSource GmbH

Das Ziel dieser Arbeit ist es, ein Prozessmodell für die Verwendung virtueller Maschinen innerhalb der dotSource GmbH zu entwickeln, das bestehende Konfigurationssystem anhand dieses Modells weiterzuentwickeln und hinsichtlich seiner Effektivität zu bewerten.
Um zunächst das Verständnis für den Umgang mit den verwendeten Technologien zu verbessern, werden in Kapitel 2 die technischen Grundlagen von Vagrant und Puppet überblicksartig erläutert. Dabei wird sowohl auf deren Funktion im vorliegenden Projekt als auch die konkrete Handhabung eingegangen.
Für die Entwicklung des Modells werden grundlegende Techniken des Prozessmanagements angewendet. Aus diesem Grund wird im Kapitel 3 ein Überblick zu dessen Motivation gegeben und auf den konkreten Nutzen im vorliegenden Projekt eingegangen. Zur weiteren Vertiefung dieser Thematik werden theoretische Grundlagen hinsichtlich der Bestandteile und Darstellung von Prozessmodellen erörtert. Innerhalb der anschließenden Modellentwicklung werden alle Tätigkeit, die im Rahmen eines beliebigen Szenarios im Umgang mit virtuellen Maschinen von Relevanz sind, abstrahiert und in den Prozessverlauf eingeordnet. Auf der Basis der zuvor ermittelten theoretischen Kenntnisse entsteht so das finale Prozessmodell.
Im nachfolgenden Kapitel 4 wird die praktische Weiterführung des Systems erläutert. Hier wird in separaten Abschnitten auf die vorliegenden und neu ermittelten Anforderungen der einzelnen Abteilungen eingegangen, der aktuelle Stand vorgestellt und auf die konkrete technische Realisierung Bezug genommen. Des Weiteren werden in diesem Zusammenhang abschließend Problemstellungen, die im Rahmen der Umsetzung festgestellt und als relevant für die Projektfortführung eingeschätzt wurden, dargelegt und erläutert.
Nachdem ein passendes Modell entwickelt und die geplanten Umsetzungen durchgeführt wurden, bildet die Auswertung der Ergebnisse den Kern des Kapitels 5. In diesem werden alle Aspekte der ermittelten Einsatzszenaren hinsichtlich des bisher etablierten Vorgehens und der durchgeführten Automatisierung betrachtet. Das erstellte Modell bildet dabei die Basis für zeitliche Messungen und eine objektive Bewertung im Rahmen der entwickelten Testszenarien. Innerhalb einer abschließenden Gegenüberstellung der erfassten Ergebnisse wird die Wirtschaftlichkeit der durchgeführten Maßnahmen bewertet und ein erster Ausblick zur Zukunft der betrachteten Prozesse gegeben.
Abschließend werden im Rahmen des Fazits noch einmal wichtige Zwischenergebnisse zusammengefasst und die daraus abgeleiteten Erkenntnisse vorgestellt.
Abbildung virtuelle Maschine
Kostenloser Download der gesamten Bachelorarbeit 

Erweiterung einer Imageservertechnologie am Beispiel des dotSource Produktgestalters auf Basis einer Open-Source-Software (2012)

Mass Customization ist die Kombination aus Massenproduktion und individuellen Anpassungen. Hierbei wird versucht dem Kunden so viele Gestaltungsmöglichkeiten bei der Individualisierung seines Produktes wie möglich zu geben. Im Zuge der Idee dieser kundenorientierten Produkterstellung entwickelte die dotSource den Product Designer. Dieser stellt eine Webapplikation dar, mit welcher Text, Bilder und Farben auf einer Vorlage selbst gestaltet und später über den Shop gekauft werden können (https://www.dotsource.de/product-designer/).

Bachelorarbeit Erweiterung einer Imageservertechnologie am Beispiel des dotSource Produktgestalters auf Basis einer Open-Source-Software
Docu Commands and Dependencies

Serverseitig bearbeitet der dsImageServer die Anfragen (sogenannte Requests) nach Bildern. Sie werden verarbeitet und die Ergebnisse in Form von Bildern an den Produktgestalter zurückgegeben. Die Arbeit befasst sich nun mit der Erweiterung des dsImageServers. Er stellt die Funktionen der serverseitigen Manipulation und Auslieferung von Bildressourcen zur Verfügung.
Zu bearbeitende Aufgabenbereiche sind hierbei:

  • Aktualisierung der genutzten IIPImage Quelltexte (v0.9.9) und
  • Performanceoptimierungen bei initialer Anfrage an Bilder.

Innerhalb der Bachelorarbeit werden Teildokumentationen, UnitTests und Profiler erstellt, deren Ergebnisse analysiert und entsprechende Anpassungen/Optimierungen vorgenommen.

Kostenloser Download der gesamten Bachelorarbeit

Open Source: Ehemaliger Preisbock auf WordPress – Umfangreiche Liveshopping-Erweiterung des Bloggingtools

Das eigentliche Bloggingtool WordPress wird seit seiner Entwicklung im Jahre 2004 nicht nur zum Bloggen verwendet. Auch als CMS für andere Zwecke kann man es nutzen. Mit seinen derzeit ca. 4,5 Millionen aufgesetzten Seiten ist WordPress eines der am weitest verbreiteten CMS. Bei sovielen verschiedenen Nutzern entstehen auch Seiten, die nicht nur dem reinen Blogging dienen. So basierte das dotSource eigene Liveshoppingportal www.preisbock.de bis 2009 auf WordPress. Es war und ist bis heute eine der am umfangreichsten weiterentwickelten WordPress Plattformen. Wie im folgenden Screenshot des Backends erkenntlich, waren neben den Standardfunktionen viele weitere Tools rund um den Shopbetrieb integriert. Dadurch waren eine Übersicht, die Überwachung und das Management der Presales, der Aftersales und der verschiedenen User möglich. Zusätzlich steht ein umfangreiches Controlling zur Verfügung.

All diese Funktionen sind in einem einzigen Plug-In zusammengefasst. Ein weiteres Payment Plug-In vervollständigt den ehemaligen Funktionsumfang des Preisbocks. Für Interessierte stellen wir das Plug-In auf Sourceforge zur Verfügung. Das Projekt, Erläuterungen und weitere Screenshots findet ihr hier.
Eine Beschreibung zur Einrichtung und den verschiedenen Funktionen liefert eine Projektarbeit. Sie erläutert Einstellungen, den Plug-In-Aufbau und die gesamte Struktur des Preisbock. Außerdem werden verschiedene Hinweise zum Umgang mit WordPress geliefert.
Kostenloser Download der Projektarbeit

Außerdem gibt es zwei weitere Arbeiten zum Refactoring des Preisbock und zur anschließenden Migration von WordPress auf Magento über die in XMLbasierte Importschnittstelle, welche in diesem Artikel genauer beschrieben ist.
Refactoring der Webapplikation Preisbock in Kombination mit der Suche nach einer neuen Basisplattform 
Migration der Daten des aktuellen Preisbocks auf das Shopsystem Magento der Firma Varien 

Konzeption und Implementierung eines Community- und Redaktionssystems (2010)

Die Informationsflut in der heutigen Gesellschaft ist enorm. Durch das Internet werden Nachrichten weltweiter Vorgänge in Sekunden zu Orten in der ganzen Welt transportiert. Für Internetanbieter von Informationsportalen ist eine aktive Community dabei sehr wichtig, um aktuelle Nachrichten zu verbreiten, Fragen zu klären und auch regionale Informationen einzubeziehen. Ein sehr gutes Beispiel für eine Informationscommunity ist der Microblogging-Dienst Twitter. Im arabischen Frühling wurde das Tool von betroffenen Menschen genutzt, um Informationen in die weite Welt zu tragen. Die Informationsflut zu vielen Themen wie auch zu diesem Thema ist sehr groß und kann nur schwer überblickt werden.
Die dotSource startete zu einem ähnlichen Zweck das Portal Newskraft.de. Durch ein erweitertes Community- und Redaktionssystem sollten regionalspezifische Nachrichten geordnet und zugänglich werden, denn das größte Problem ist die Masse an Informationen und die damit verbundene fehlende Übersichtlichkeit. So wurde ein Tool entwickelt um Nachrichten nach Regionen, Städten und Rubriken zu ordnen.

 

ERD des Nachrichtensystems

 
Die hier beschriebene Arbeit beschreibt prozessorientiert die Weiterentwicklung der Plattform Newskraft.de. Nachdem anfänglich einige wichtige Begriffe, wie zum Beispiel das Workflowmanagement, erklärt und der bisherige Entwicklungsstand erläutert werden, folgen weitere Erklärungen zum JavaScript Framework JQuery. Diese dienen dazu Marktbetrachtungen von anderen Newsportalen unter Ajax-basierten Gesichtspunkten zu bearbeiten. Unter Berücksichtigung verschiedener Gesichtspunkte wird dann ein geeignetes Projektvorgehen bestimmt und ein Pflichtenheft erstellt. Daraufhin werden verschiedene Implementierungsentwürfe zusammengefasst dargestellt und einige Funktionalitäten und Komponenten erläutert. Zum Abschluss des Prozesses werden die Testvorgänge beschrieben und einzelne Probleme im Vorgang aufgezeigt. Zusammenfassend wird dann der Projekterfolg evaluiert und ein Ausblick auf mögliche fortführende Entwicklungen wiedergegeben.

Kostenloser Download der gesamten Diplomarbeit 

Analogie eines Serverclusters mit dem neuen Virtualisierungstrend Cloud Computing (2010)

Der Zugang zu Daten hat sich in den informationstechnologischen Branchen durch die Entwicklung der Speichermethoden und die immer schnelleren Verbindungen zwischen Rechnern kontinuierlich weiterentwickelt. Das Internet und leicht zu transportierende Datenträger machten eine relativ flexible Datenhaltung möglich. Eine der neuesten Entwicklungen der letzten Jahre stellt das Cloud Computing dar. Durch diese Art der Datenhaltung kann man mit einer Verbindung zum Internet über jedes Endgerät auf die in der Cloud abgelegten Daten zugreifen. Für Serversysteme ergeben sich so neue Möglichkeiten im strukturellen Aufbau. Natürlich ergeben sich auf der anderen Seite auch eine neue Kostenstruktur und Sicherheitsbedenken.

Kostenloser Download der gesamten Bachelorarbeit

Implementierung einer universellen XML-basierten Importschnittstelle für Magento(2009)

Im Zuge der vergangene Migration des Preisbocks von WordPress auf Magento war es nötig eine geeignete Schnittstelle zu entwickeln, um die großen Datensätze zu übertragen. Aufgrund des Prototypen von der Migration des Preisbock wurde so eine universelle Schnittstelle mitentwickelt. Das Ziel des Prototyps war es, die Grunddaten dieser Plattform (Kunden, Produkte, Bestellungen) innerhalb von zehn Stunden zu importieren. Somit musste schon in der Anfangszeit der Entwicklung auf die Performance geachtet werden.
Um die Schnittstelle universell zu gestalten, wurde sie im Nachhinein um weitere Funktionen und Optimierungen erweitert. Neue Funktionalitäten waren bspw. ein Import aus Quelldateien in den Formaten XML9 (Extensible Markup Language) oder CSV10 (Comma Separated Values) sowie ein geeignetes Dublettenhandling. Optimierungen erfolgten primär im Backendbereich der Anwendung sowie seiner internen Logik.
Der Aufbau ist klar gegliedert. Nach einer Anforderungsanalyse erfolgt die Erklärung der teilweise komplizierten Preisbockdatenbank. Bevor der Entschluss zu einer eigenen Schnittstelle gefasst wurde, prüfte der Autor bereits vorhandene Importmöglichkeiten. Nach den Besonderheiten für den Prototyp wird auf einzelne Komponenten der universellen Schnittstelle eingegangen, um abschließend verschiedene Probleme der Entwicklungsphase und die Leistungsfähigkeit zu betrachten.

 

Kostenloser Download der gesamten Bachelorarbeit