#Testautomatisierung
Explore tagged Tumblr posts
Text
Moderne Regressionstests in der Cybersicherheit: Ein Paradigmenwechsel - Teil 1 neuer Ansatz, neuer Workflow
Seit mehreren Jahren nutze ich den Owasp Zap - Schwachstellentester für meine Projekte und dies immer sehr erfolgreich. Gerade hinsichtlich der Flexibilität, auch hinsichtlich einer Testautomatisierung, der schier großen Dichte von Erweiterungen, und der Open Source Lizenzierung, bietet Owasp Zap eine solide Basis, die man immer wieder nutzen kann.
Die Notwendigkeit eines neuen Ansatzes
In der sich schnell entwickelnden Welt der Cybersicherheit ist es für Produktsicherheitsteams entscheidend, Schwachstellen nicht nur zu erkennen und zu beheben, sondern auch sicherzustellen, dass diese Probleme nicht wieder auftauchen. Ein wesentlicher Bestandteil dieses Prozesses ist das Regressionstesten. Traditionelle Methoden des manuellen Regressionstestens stoßen jedoch an ihre Grenzen. In diesem Blogbeitrag möchte ich eine innovative Methode vorstellen, die den Prozess der Regressionstests in der Cybersicherheit revolutioniert und an die Anforderungen der heutigen Zeit anpasst – basierend auf OWASP ZAP. https://youtu.be/5ZGo_eR46To
Das Problem mit manuellen Tests
Viele von uns kennen die Situation: Eine Schwachstelle wird gemeldet, sei es durch einen aufmerksamen Nutzer, ein Bug-Bounty-Programm oder einen Penetrationstest. Der Entwickler behebt das Problem schnell, und alles scheint in Ordnung. Doch nach einiger Zeit taucht dieselbe Schwachstelle wieder auf. Die Ursache? Eine unbedachte Änderung hat den ursprünglichen Patch rückgängig gemacht. Dies ist ein klassischer Fall von Regression, und genau hier kommen Regressionstests ins Spiel. Traditionell wurden diese Tests manuell durchgeführt. Dies bedeutete, dass Sicherheitstechniker jede behobene Schwachstelle erneut überprüfen mussten. Dieser Prozess war nicht nur zeitaufwendig, sondern auch fehleranfällig und ineffizient. Zudem fehlte es an Skalierbarkeit, um mit der zunehmenden Anzahl von Schwachstellen und deren Behebungen Schritt zu halten. In meinen Projekten der letzten 26 Jahren, führte dies zu einer endlosen Flut von Jira-Tickets, die alle erneut getestet werden mussten. Und das ist eine Endlose fummelei, und nur mit dem Einsatz von mehreren Leuten überhaupt zu bewältigen.
Eine neue Herangehensweise mit OWASP ZAP
Um diese Herausforderungen zu meistern, haben ich einen neuen Ansatz entwickelt, der Automatisierung und Skalierbarkeit miteinander verbindet, indem ich OWASP ZAP als Grundlage nutzen. ZAP (Zed Attack Proxy) ist ein Open-Source-Webanwendungsscanner, der sich ideal für die Automatisierung von Sicherheitstests eignet. Der neue Prozess im Detail
- Identifikation und Triage: Sobald eine Schwachstelle entdeckt wird, prüft ein Security-Tester, ob sie sich für einen automatisierten Regressionstest eignet. Erfüllt sie die Kriterien, wird sie mit einem speziellen Jira-Label versehen (natürlich geht auch jedes andere System, was über eine Tag-Funktion verfügt). - Erstbewertung der Schwachstelle: Die Schwachstelle wird entweder durch interne Tests, Bug-Bounty-Programme, Penetrationstests oder Benutzerberichte entdeckt. - Dies schließt ausdrücklich auch den Einsatz durch eine CI/CD Lösung mit ein, die auf Owasp Zap beruht. Aktive und passive Scanner, die z. B. in wöchentlichen Testruns entsprechend eure Projekte auf Schwachstellen vertestet. - Dokumentation und Risikobewertung: Alle relevanten Details der Schwachstelle werden dokumentiert, einschließlich der betroffenen Systeme, der Art der Schwachstelle und möglicher Auswirkungen. - Eignungsprüfung für die Automatisierung: - Reproduzierbarkeit: Der Security-Tester überprüft, ob die Schwachstelle einfach und zuverlässig reproduzierbar ist. Dies bedeutet, dass die Schwachstelle mit einer einfachen Anfrage und einer spezifischen Antwort auftritt. - Automatisierungspotential: Es wird beurteilt, ob die Schwachstelle durch ein automatisiertes Skript reproduziert und getestet werden kann. Beispiele hierfür sind Schwachstellen wie offengelegte Anmeldeinformationen im Antwortkörper oder API-Aufrufe ohne Sitzungsvalidierung. - Kategorisierung und Priorisierung: - Kritikalität: Die Schwachstelle wird nach ihrer Kritikalität eingestuft. Kritische Schwachstellen, die sofortige Aufmerksamkeit erfordern, werden höher priorisiert. Eine Bewertung für Risiko behaftete Schwachstellen findet ihr bei OWASP, oder hier. - Wiederholungswahrscheinlichkeit: Schwachstellen, die eine hohe Wahrscheinlichkeit haben, wieder aufzutreten, werden ebenfalls höher priorisiert. - Spezielle Kennzeichnung im Jira (oder vergleichbares Testmanagement-System): - Label-Zuweisung: Erfüllt die Schwachstelle die Kriterien für die Automatisierung, wird sie im Jira-System mit einem speziellen Label versehen. Dieses Label identifiziert die Schwachstelle als geeignet für automatisierte Regressionstests. - Erstellung eines benutzerdefinierten ZAP-Skripts: Für jede geeignete Schwachstelle erstellen wir ein individuelles ZAP-Skript, das speziell darauf ausgelegt ist, die Regression dieser Schwachstelle zu überprüfen. - Integration ins Repository: Das neue Skript wird in unser Code-Repository für automatisierte Regressionstests eingefügt. Ein automatisierter Job plant regelmäßige Ausführungen, zieht Updates und führt die ZAP-Skripte aus. - Automatisierte Überprüfung und Wiedereröffnung von Tickets: Schlägt ein Regressionstest fehl, wird das entsprechende Jira-Ticket automatisch wieder geöffnet – dies kann man über Xray lösen. Dazu wird es aber einen gesonderten Beitrag geben. Diese Struktur ermöglicht eine nahtlose Integration in ZAP und stellt sicher, dass jedes benutzerdefinierte Skript mit dem Jira-Ticket der Schwachstelle verknüpft ist. Beispielprozess für ein OWASP ZAP-basiertes Regressionstest-Skript in Python Hier ist ein Beispiel für ein Python-Skript, das OWASP ZAP verwendet, um eine Schwachstelle auf Regression zu testen: import requests from zapv2 import ZAPv2 # ZAP API Konfiguration zap = ZAPv2(apikey='your_zap_api_key', proxies={'http': 'http://localhost:8080', 'https': 'http://localhost:8080'}) # Ziel-URL target_url = 'http://example.com/vulnerable_endpoint' # Schwachstelle: Überprüfung auf offengelegte Anmeldeinformationen im Antwortkörper def check_vulnerability(response): if 'sensitive_information' in response.text: print("Vulnerability still exists!") reopen_jira_ticket("JIRA-1234") # Funktion zum Wiederöffnen eines Jira-Tickets def reopen_jira_ticket(ticket_id): jira_url = f"http://your_jira_instance/rest/api/2/issue/{ticket_id}/transitions" headers = { 'Content-Type': 'application/json', 'Authorization': 'Basic your_jira_auth_token' } payload = { 'transition': { 'id': 'your_reopen_transition_id' } } response = requests.post(jira_url, headers=headers, json=payload) if response.status_code == 204: print(f"Jira ticket {ticket_id} reopened successfully.") else: print(f"Failed to reopen Jira ticket {ticket_id}: {response.text}") # Testen der Schwachstelle mit OWASP ZAP def run_regression_test(): # Starten des ZAP-Scans zap.urlopen(target_url) print(f"Scanning target: {target_url}") # Warten auf Scan-Ergebnisse while int(zap.spider.status) < 100: print(f"Spider progress: {zap.spider.status}%") # Abrufen der HTTP-Antwort response = requests.get(target_url, proxies={'http': 'http://localhost:8080'}) # Überprüfen auf Schwachstelle check_vulnerability(response) # Hauptfunktion if __name__ == "__main__": run_regression_test()
Die Vorteile der Automatisierung
Der Wechsel zu einem automatisierten Regressionstestsystem auf Basis von OWASP ZAP bringt zahlreiche Vorteile mit sich: - Erhöhte Effizienz: Der Automatisierungsprozess reduziert den Zeitaufwand für manuelle Tests erheblich und minimiert menschliche Fehler. - Kontinuierliche Tests: Anstatt punktuelle Tests durchzuführen, ermöglicht die Automatisierung kontinuierliche Überprüfungen. - Zeitersparnis: Sicherheitstechniker können sich auf komplexere und wertvollere Aufgaben konzentrieren, da die Routinearbeiten durch Automatisierung erledigt werden.
Fazit: Ein Schritt in die Zukunft
Regressionstests sollten ein integraler Bestandteil des Lebenszyklus von Schwachstellen in jedem Unternehmen sein. Durch die Implementierung eines automatisierten Ansatzes mit OWASP ZAP haben wir die Effizienz und Genauigkeit in unserem Team erheblich verbessert und wertvolle Zeit gespart. Ich ermutige andere Unternehmen und Sicherheitsexperten, ähnliche Methoden zu übernehmen, um ihre Sicherheitsprozesse weiter zu optimieren und einen Schritt in Richtung einer sichereren digitalen Zukunft zu machen. Read the full article
0 notes
Text
[ad_1] Job title: Software Tester (m/w/d) | Testautomatisierung Company: Reply Job description: , die Digitalisierung im Finanzsektor voranzutreiben, dann komm zu uns! * Als Test Automation Engineer automatisierst du manuelle Testfälle... Expected salary: Location: Berlin Job date: Thu, 22 Feb 2024 08:24:48 GMT Apply for the job now! [ad_2]
0 notes
Text
Testautomatisierung ohne Code und Entwickler – lernen Sie uns am 22./23. Oktober in Brüssel auf der D365 Focus Europe Konferenz kennen
Sie sind gerade in der Einführungsphase oder bereits im Rollout von Microsoft Dynamics 365 – dann freuen wir uns, Ihnen einen hervorragenden Veranstaltungstipp geben zu können: Mit der D365 Focus Europe steht eine Veranstaltung bevor, die genau die Inhalte thematisiert, die Sie jetzt interessieren. Wir laden Sie herzlich ein, uns vor Ort in Brüssel am Stand von XPLUS, deren deutscher Vertreter wird sind, zu besuchen. Testautomatisierung für Funktions- Regressions- und auch Lasttests zu betreiben. Dazu präsentieren wir Ihnen die innovative Lösung Executive Automats von XPLUS. Was bringt die Technik für Ihren Bedarf? Das er��rtern wir gerne im persönlichen Gespräch. Aber so viel vorab: Die Anwendung bringt mehr Effizienz und mehr Qualität in der Cloud. Konkret erhalten Sie Unterstützung von der Aufzeichnung der ERP/CRM/SCM-Prozesse über die Dynamisierung und Parametrisierung bis zur parametrisierten Wiedergabe als Test – das alles ohne Code und Entwickler. Konnten wir Ihr Interesse wecken? Dann folgen Sie uns auf die D365 Focus Europe, eine internationale Leitveranstaltung zu den Themenkomplexen CRM und AX für Anwender von Microsoft Dynamics. Die Veranstaltung findet am Dienstag den 22. und Mittwoch den 23. Oktober 2019 in Brüssel statt. Weitere Informationen finden Sie unter www.ugfocus.com. Wir freuen uns auf ein persönliches Treffen! Weitere Informationen und Angaben finden Sie unter http://www.prseiten.de/pressefach/webtelligence-itc/news/3980 sowie http://www.partnerforperformance.com. Über P4P Solutions GmbH - Partner for Performance: Wie werden Datenbanken effizienter und leistungsfähiger? Wie lassen sich Anonymisierung und Replikation einfach realisieren? Benötigt Dynamics Testautomatisierung immer einen Entwickler? Die Partner for Performance GmbH liefert zeitgemäße Antworten auf diese Fragen. Mit unserer langjährigen Erfahrung bieten wir Anwendern, Dienstleistern und Softwarehäusern individuelle Beratung und bedarfsgerechte Lösungen: Datenbanktools für Monitoring, Leistungsanalyse, Replikation und Anonymisierung. Gemeinsam mit uns stellen Kunden die Performance und die Stabilität für Benutzer nachhaltig sicher – und steigern die Leistung. Ergänzend bieten wir Anwendern von Microsoft Dynamics umfassende Unterstützung auf dem Gebiet der kodefreien Testautomatisierung. Pressekontakt: P4P Solutions GmbH - Partner for Performance Michael Roedeske Max-Holder-Str. 25 73630 Remshalden Deutschland 0049-7151-205259-0 [email protected] http://www.partnerforperformance.com
0 notes
Text
Cross-Plattform: Qt erwirbt mit froglogic Know-how zur Testautomatisierung
Die Qt Group erweitert mit der Übernahme ihr Portfolio um ein GUI zur Testautomatisierung und deckt nun den kompletten Entwicklungsprozess von Software ab. Read more www.heise.de/news/…... www.digital-dynasty.net/de/teamblogs/…

http://www.digital-dynasty.net/de/teamblogs/cross-plattform-qt-erwirbt-mit-froglogic-know-how-zur-testautomatisierung
0 notes
Text
Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April
New Post has been published on https://finanznachrichten.online/testautomatisierung-fuer-plattformunabhaengige-apps-nina-muerschberger-beim-gtb-testing-summit-am-14-april/
Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April
Wie können Apps auf unterschiedlichen Endgeräten und verschiedenen Plattformen getestet werden? Wie groß ist der Testaufwand? Verdoppelt er sich pro Endgerät? Und welche Tools bieten sich zum Testen in der Praxis an? Um 16 Uhr beantwortet Nina Mürschberger diese und weitere Fragen. Da Cros...
Ganzen Artikel zu Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April lesen auf https://finanznachrichten.online/testautomatisierung-fuer-plattformunabhaengige-apps-nina-muerschberger-beim-gtb-testing-summit-am-14-april/
0 notes
Text
Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April
New Post has been published on https://www.adhocmitteilung.de/testautomatisierung-fuer-plattformunabhaengige-apps-nina-muerschberger-beim-gtb-testing-summit-am-14-april/
Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April
Wie können Apps auf unterschiedlichen Endgeräten und verschiedenen Plattformen getestet werden? Wie groß ist der Testaufwand? Verdoppelt er sich pro Endgerät? Und welche Tools bieten sich zum Testen in der Praxis an? Um 16 Uhr beantwortet Nina Mürschberger diese und weitere Fragen. Da Cros...
Ganzen Artikel zu Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April lesen auf https://www.adhocmitteilung.de/testautomatisierung-fuer-plattformunabhaengige-apps-nina-muerschberger-beim-gtb-testing-summit-am-14-april/
0 notes
Text
Kosten senken durch Abhärtung von automatisierten Testfällen ?

Bekanntlich ein sehr großes Problem, die Wartung von Testfällen gerade in der Testautomatisierung kostet Zeit, obwohl meistens die Änderung relativ klein ist. Vielfach liegt es daran das in den Testfällen harte Codierungen von Werten vorliegen, das verursacht dann zeitnah einen Ausfall solch eines Testfalls. Und in den meisten Fällen müssen dann immer diese Testfälle bearbeitet werden, obwohl sich eventuell nur ein Pixel geändert hat. Das ist aber ein vollkommen falscher Ansatz, Ziel muss immer die Abhärtung eines Testfalls sein, nicht die elend lange Bearbeitung von Testfällen, was nachhaltig mehr Kosten verursacht als euch und euren Vorgesetzten, bzw. eurem Team lieb ist. https://www.dev-crowd.com/2022/08/09/wie-mache-ich-automatisierte-testfaelle-effizienter/ Schon 2022 hatte (siehe oberhalb) ich mir dazu Gedanken gemacht, wie man automatisierte Testfälle effektiver machen könnte. Betrachtet man das zusätzlich mit der Möglichkeit eines Einsatzes einer KI (wäre effektiv darüber nachzudenken) so ergibt sich ein neuer Ansatz, über den ich hier mal berichten möchte. Warum spare ich Kosten? - Weniger False-Positive Ergebnisse: Stabilisierte Tests führen zu weniger Fehlalarmen. Falsch-positive Ergebnisse können Teams dazu veranlassen, unnötig Zeit in die Untersuchung von Problemen zu investieren, die tatsächlich nicht existieren. - Zeitersparnis: Wenn Testfälle stabil sind und weniger oft fehlschlagen, verbringen Entwickler und QA-Teams weniger Zeit damit, die Ursachen von Testfehlern zu untersuchen. - Höhere Zuverlässigkeit: Stabile Tests erhöhen das Vertrauen in die Testergebnisse. Dies kann dazu führen, dass Software schneller freigegeben wird, da weniger Zeit für manuelle Überprüfungen aufgewendet wird. - Weniger Wartungsaufwand: Stabile automatisierte Testfälle benötigen weniger häufige Überarbeitungen. Das reduziert die Gesamtkosten für die Wartung des Testframeworks. - Bessere Nutzung von Ressourcen: Durch die Reduzierung von Fehlalarmen und den damit verbundenen manuellen Überprüfungen können Ressourcen (z. B. Testumgebungen, Hardware) effizienter genutzt werden. - Frühe Fehlererkennung: Gut abgegrenzte automatisierte Tests können Fehler früh im Entwicklungszyklus aufdecken, was oft kostengünstiger ist als das Beheben von Fehlern in späteren Phasen oder nach der Produktfreigabe. - Konsistente Testausführung: Automatisierte Tests werden jedes Mal in der gleichen Weise ausgeführt, was eine größere Konsistenz im Vergleich zu manuellen Tests gewährleistet. - Skalierbarkeit: Ihr könnt mehr Tests in kürzerer Zeit ausführen, insbesondere wenn ihr in der Lage seid, Tests parallel oder in verteilten Umgebungen auszuführen. - Dokumentation: Automatisierte Testfälle können als eine Art von Dokumentation für das Verhalten des Systems dienen. Sie zeigen klar, was von der Software erwartet wird. - Rückmeldung in Echtzeit: Bei der Integration von Testautomatisierung in eine CI/CD-Pipeline können Entwickler sofortiges Feedback über den Status ihres Codes erhalten. - Höhere Testabdeckung: Automatisierte Tests können eine höhere Codeabdeckung erreichen, besonders wenn sie regelmäßig und umfassend eingesetzt werden. - Häufigere Releases: Mit stabilen Tests können Organisationen sicherer und häufiger Software-Releases durchführen. - Verbesserung der Teammoral: Wenn QA-Teams weniger Zeit mit wiederholtem manuellen Testen und der Untersuchung von Fehlalarmen verbringen, könnt ihr euch auf komplexere und wertvollere Aufgaben konzentrieren. - Reduzierung menschlicher Fehler: Während des manuellen Testens können menschliche Fehler auftreten, etwa durch Übersehen oder inkonsistente Testausführung. Automatisierte Tests reduzieren dieses Risiko. - Erhöhte Marktreife: Die Fähigkeit, Software schneller und mit höherer Qualität zu testen und zu releasen, kann den Markteintritt beschleunigen. - Regressionsüberprüfung: Automatisierte Tests erleichtern die Durchführung von Regressionstests, um sicherzustellen, dass neue Änderungen keine vorhandenen Funktionen beeinträchtigen. Wie setze ich das um? - Gute Testdesign-Praktiken: Dies beinhaltet die Verwendung von Page-Object-Modellen, geeignete Testdatenverwaltung und das Isolieren von Tests voneinander. - Wartezeiten und Synchronisierung: Bei UI-Tests sollten dynamische Wartezeiten verwendet werden, um sicherzustellen, dass Elemente geladen sind, bevor Aktionen ausgeführt werden. - Umgang mit flüchtigen Tests: Tests, die intermittierend fehlschlagen, sollten identifiziert und behoben oder vorübergehend deaktiviert werden. - Regelmäßige Überprüfung und Aktualisierung: Tests sollten regelmäßig überprüft werden, um sicherzustellen, dass sie noch relevant sind und korrekt funktionieren. - Granularität der Tests: Schreibt kleine, zielgerichtete Tests, die nur eine bestimmte Funktionalität oder ein bestimmtes Feature testen. Dadurch wird die Fehlersuche erleichtert, da fehlschlagende Tests schnell auf eine spezifische Ursache hindeuten. - Idempotenz: Stellt sicher, dass Tests idempotent sind, d.h., sie können mehrmals unter denselben Bedingungen ausgeführt werden und liefern jedes Mal dasselbe Ergebnis. - Testumgebungen: Verwendet dedizierte Testumgebungen, die dem Produktionsumfeld so ähnlich wie möglich sind, um sicherzustellen, dass Tests in einer konsistenten und kontrollierten Umgebung laufen. - Logging und Berichterstattung: Ein gutes Logging und Berichtssystem kann dabei helfen, Probleme schneller zu diagnostizieren. Insbesondere bei Fehlschlägen sollte detaillierte Information verfügbar sein. - Code-Review für Tests: Genau wie Produktionscode sollten auch Testcodes regelmäßig überprüft werden. Dies stellt sicher, dass die Tests den Best Practices folgen und effektiv sind. - Priorisierung von Tests: Nicht alle Tests sind gleich wichtig. Bestimmt, welche Tests kritisch sind und welche weniger kritisch sind. Dies hilft bei der Entscheidungsfindung, wenn ihr beispielsweise eine schnelle Regressionstest-Suite ausführen müsst. - Cross-Browser- und Cross-Plattform-Tests: Wenn ihr Webanwendungen testet, stellt sicher, dass Ihre Tests in verschiedenen Browsern und Plattformen funktionieren. Tools wie Selenium Grid oder Dienste wie BrowserStack und Sauce Labs können dabei helfen. - Datengetriebene Tests: Anstatt für jede Datenkombination einen separaten Test zu schreiben, könnt ihr einen Test schreiben, der durch eine Reihe von Datenpunkten geführt wird. Frameworks wie pytest bieten Unterstützung für datengetriebene Tests. - Fehlerbehandlung: Berücksichtigt wie euer Testframework mit unerwarteten Fehlern, wie z.B. Timeouts, Abstürzen oder externen Abhängigkeiten, umgeht. Implementiert geeignete Fehlerbehandlungen, um solche Situationen zu adressieren. - Integration mit CI/CD: Integriert eure Tests in Ihre Continuous Integration/Continuous Deployment-Pipeline, um sicherzustellen, dass Tests automatisch bei jedem Code-Check-in oder -Release ausgeführt werden. - Monitoring und Alarmierung: Stellt sicher, dass ihr benachrichtigt werdet, wenn Tests fehlschlagen, insbesondere in CI/CD-Pipelines oder bei nächtlichen Testläufen. - Testabdeckung: VerwendetTools zur Messung der Codeabdeckung, um sicherzustellen, dass Ihr Code angemessen durch Tests abgedeckt ist. - Isolation von externen Diensten: Wenn euer Code externe Dienste oder APIs verwendet, sollten ihr diese Dienste während des Tests durch Mocks oder Stubs ersetzen, um sicherzustellen, dass eure Tests nicht von externen Faktoren beeinflusst werden. - Modularisierung von Testcodes: Vermeidet redundante Codes, indem ihr gemeinsame Vorgehensweisen und Funktionen in wiederverwendbare Module oder Hilfsfunktionen auslagert. - State Management: Stellt sicher, dass ihr den Zustand vor und nach Tests zurücksetzt, um Seiteneffekte zu vermeiden und die Unabhängigkeit der Tests zu gewährleisten. - Testen von Rand- und Ausnahmefällen: Neben den Standard-Testfällen sollten ihr auch Rand- und Ausnahmefälle in Betracht ziehen, um die Robustheit eures Codes zu überprüfen. - Performance- und Lasttests: Neben funktionalen Tests solltet ihr auch die Leistung und Skalierbarkeit eurer Anwendung unter verschiedenen Lastbedingungen testen. - Testen von Sicherheitsaspekten: Führt Sicherheitstests durch, um potenzielle Schwachstellen oder Sicherheitslücken in eurer Anwendung zu identifizieren. - Visual Testing: Für UI-basierte Anwendungen kann das visuelle Testen sicherstellen, dass die Benutzeroberfläche wie erwartet erscheint, insbesondere nach Änderungen oder Updates. - Verwaltung von Testkonfigurationen: Stellt sicher, dass ihr leicht zwischen verschiedenen Testkonfigurationen (z.B. verschiedene Umgebungen, Datenbanken oder Endpunkte) wechseln könnt. - Feedback-Schleifen: Nutzt das Feedback aus den Tests, um den Entwicklungsprozess kontinuierlich zu verbessern. - Schulung und Wissenstransfer: Stellt sicher, dass das Team regelmäßig geschult wird und Best Practices in Bezug auf Testautomatisierung und zugehörige Werkzeuge kennt. - Testtreiber und Teststubs: In einem TDD (Test Driven Development) Ansatz können Testtreiber (um fehlende Teile zu simulieren) und Teststubs (um komplexe Teile zu vereinfachen) verwendet werden, um den Testprozess zu erleichtern. - Code- und Testmetriken: Verwendet Metriken, um den Zustand euer Tests und eures Codes im Laufe der Zeit zu überwachen. Wie härte ich Selenium und Python basierte Testfälle ab? Wartet auf Elemente: - Verwendet explizite Wartezeiten, um auf das Erscheinen von Elementen zu warten, anstatt feste Zeitverzögerungen zu verwenden. - Nutzt Wartebedingungen wie WebDriverWait in Kombination mit erwarteten Bedingungen (ExpectedConditions), um auf das gewünschte Element zu warten, bevor ihr damit interagieren. from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC # Beispiel für das Warten auf ein Element mit WebDriverWait element = WebDriverWait(driver, 10).until( EC.presence_of_element_located((By.ID, "element_id")) ) Fehlerbehandlung: - Implementiert robuste Fehlerbehandlungen, um auf unerwartete Ausnahmen vorbereitet zu sein. - Verwendet try-except-Blöcke, um Ausnahmen abzufangen und entsprechend zu reagieren. try: # Führen Sie hier Ihre Aktionen aus except NoSuchElementException: # Handle den Fall, wenn das Element nicht gefunden wird except TimeoutException: # Handle den Fall, wenn ein Timeout auftritt Loggt eure Informationen: - Fügt Protokollausgaben hinzu, um den Testverlauf und Fehlermeldungen besser nachverfolgen zu können. - Verwendet Python-Logging oder andere geeignete Protokollierungsmechanismen. import logging # Konfigurieren Sie das Logging logging.basicConfig(level=logging.INFO) logger = logging.getLogger(__name__) # Protokollieren von Informationen logger.info("Aktion erfolgreich ausgeführt") logger.error("Ein Fehler ist aufgetreten") Verwendet den Headless-Modus: - Führt Tests im Headless-Modus aus, um die Leistung zu verbessern und die Stabilität zu erhöhen, insbesondere auf Servern ohne grafische Benutzeroberfläche. from selenium.webdriver.chrome.options import Options options = Options() options.headless = True driver = webdriver.Chrome(options=options) Testdatenmanagement: - Trennt die Testdaten von Testfällen, um die Wartbarkeit zu verbessern. - Verwendet externe Dateien oder Datenbanken, um Testdaten zu speichern und auf sie zuzugreifen Parallelisierung: - Nutzt Tools wie Selenium Grid oder Cloud-basierte Testplattformen, um Tests parallel auf verschiedenen Browsern und Plattformen auszuführen, was die Ausführung beschleunigen und die Ausfallsicherheit erhöhen kann. Überwachung und Berichterstattung: - Überwacht eure Testausführungen und erstellt detaillierte Berichte über den Status und die Ergebnisse Ieurer Tests. - Verwendet Test-Frameworks und Berichterstattungswerkzeuge wie PyTest und Allure Report. Read the full article
0 notes
Text
Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April
New Post has been published on https://www.unternehmensmeldungen.com/testautomatisierung-fuer-plattformunabhaengige-apps-nina-muerschberger-beim-gtb-testing-summit-am-14-april/
Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April
Wie können Apps auf unterschiedlichen Endgeräten und verschiedenen Plattformen getestet werden? Wie groß ist der Testaufwand? Verdoppelt er sich pro Endgerät? Und welche Tools bieten sich zum Testen in der Praxis an? Um 16 Uhr beantwortet Nina Mürschberger diese und weitere Fragen. Da Cros...
Ganzen Artikel zu Testautomatisierung für plattformunabhängige Apps: Nina Mürschberger beim GTB Testing Summit am 14. April lesen auf https://www.unternehmensmeldungen.com/testautomatisierung-fuer-plattformunabhaengige-apps-nina-muerschberger-beim-gtb-testing-summit-am-14-april/ Mehr Wirtschaftsnachrichten und Unternehmensmeldungen unter https://www.unternehmensmeldungen.com
0 notes
Text
Selenium Barcode Scanner automatisieren
#Werbung aus #FreudeAmTesten Selenium Barcode Scanner automatisieren #ronnybetatester #selenium
Vor einiger Zeit hatte ich die Intension per Testautomatisierung einen QR-Code zu scannen. Anfangs war ich ein wenig ratlos, wie genau ich es umsetzen sollte, doch nach ein wenig Suche im Internet bin ich schnell fündig geworden. Allerdings hat es nicht funktioniert. Daher gibt es hier eine kleine Anleitung, um direkt den Code zu bekommen, um den Scanner zu automatisieren. Erklärung Was könnte…

View On WordPress
0 notes
Text
Schüco International KG setzt auf Executive Automats zur Dynamics AX Testautomatisierung
Bereits seit 2009 setzt die Schüco International KG in mehreren ihrer Landesgesellschaften Microsoft Dynamics AX als ERP-System ein. Laufende Anpassungen an der Software und den Geschäftsprozessen erforderten seither intensive manuelle Tests, um eine hohe Qualität und Ausfallsicherheit zu gewährleisten. Im Laufe der Zeit entwickelte sich die Anforderung, die hierdurch entstehenden Aufwände zu reduzieren. Letztlich entschied sich Schüco im Rahmen eines Auswahlverfahrenes für Executive Automats als Werkzeug zur Testautomatisierung. Executive Automats als effizienteste Lösung identifiziert In sechs unterschiedlichen Ländern und Zeitzonen arbeiten die Landesgesellschaften der Schüco International KG derzeit auf einer zentralen Installation von Microsoft Dynamics AX. Priorität haben bei dem führenden Anbieter hochwertiger Fenster-, Türen- und Fassadensystemen aus Aluminium, Kunststoff und Stahl vor allen Dingen Ausfallsicherheit und Qualität. Um diese Faktoren zu gewährleisten, führt Schüco bei jeder Änderung intensive Tests in sämtlichen Ländern durch. Aufgrund der zahlreichen Beteiligten und der Systemkomplexität sind diese manuellen Funktions- und Integrationstests äußerst ressourcen- und zeitintensiv. 2015 entschied sich das Unternehmen daher dazu, ein geeignetes System für automatisierte Tests in Microsoft Dynamics AX zu evaluieren. Das Ziel war es, Testaufwände zu reduzieren, aber dennoch das hohe Maß an Prozesssicherheit und die bestehenden Qualitätsstandards beizubehalten. „Nach Prüfung verschiedenster Anbieter und testweiser Pilotierung mehrerer Lösungen erwies sich Executive Automats als effizienteste Software für die Abbildung der dargestellten Anforderungen“, berichtet Matthias von Komorowski, Head of IT Information Systems & IT Smart Business Solutions (SBS) bei Schüco. Ein weiteres Auswahlkriterium war laut des IT-Managers die kompetente und gute Betreuung durch den deutschen Partner webtelligence. Wechselwirkungen noch in der Entwicklung entdecken „Wir nutzen Executive Automats dazu, die Qualität im Entwicklungsprozess durch automatisierte Tests weiter zu optimieren, um bereits im Vorfeld mögliche Fehlerquellen zu ermitteln und diese auszuschließen“, so Benjamin Heiland, Team Leader IT SBS im Hause Schüco. Das Unternehmen kann hierdurch ausschließen, dass sich Neuentwicklungen negativ auf andere Module und Prozesse im selben Landeslayer oder in einem anderen Unternehmenskonto auswirken. Executive Automats, ein Produkt des polnischen Softwareherstellers XPLUS, wird im deutschsprachigen Raum durch die webtelligence IT consulting GmbH vertrieben. „Schüco setzt das leistungsstarke Werkzeug ein, um Neuentwicklungen in nächtlichen automatisierten Ausführungen der Prozesse zu testen“, beschreibt Michael Roedeske die Nutzung des Systems bei seinem Kunden. „Falls ein definierter Test nicht erfolgreich war, wird ein Mitarbeiter von Schüco automatisch informiert“, so der Geschäftsführer von webtelligence weiter. Ein gutes Beispiel sei laut Schüco der große Hotfix von Microsoft, welcher aufgrund einer Steuerreform in Indien im April 2017 bereitgestellt wurde. Dank Executive Automats war es möglich, auftretende Fehler direkt zu identifizieren und zeitnah an die Entwicklung zu melden. In Summe konnten aufgrund der optimierten Qualität und der sehr geringen Fehlerquote bei den nachfolgenden Integrations- und Prozesstests erhebliche Zeitersparnisse realisiert werden. „Ich freue mich, dass Schüco mit unserer Lösung nun dauerhaft in der Lage ist, hohe Ansprüche aufrechtzuerhalten und gleichzeitig Kosten zu sparen“, fasst es Herr Roedeske zusammen. Über Schüco – Systemlösungen für Fenster, Türen und Fassaden Die Schüco International KG mit Sitz in Bielefeld entwickelt und vertreibt Systemlösungen für Fenster, Türen und Fassaden. Mit weltweit über 4.750 Mitarbeitern arbeitet das Unternehmen daran, heute und in Zukunft Service- und Technologieführer der Branche zu sein. Neben ressourcenschonenden Produkten für Wohn- und Arbeitsgebäude bietet der Gebäudehüllenspezialist Beratung und digitale Lösungen für alle Phasen eines Bauprojektes – von der initialen Idee über die Planung und Fertigung bis hin zur Montage. 12.000 Verarbeiter, Planer, Architekten und Investoren arbeiten weltweit mit Schüco zusammen. Das Unternehmen ist in mehr als 80 Ländern aktiv und hat in 2016 einen Jahresumsatz von 1,460 Milliarden Euro erwirtschaftet. Weitere Informationen unter www.schueco.de Weitere Informationen und Angaben finden Sie unter http://www.prseiten.de/pressefach/webtelligence-itc/news/3825 sowie http://www.webtelligence-itc.net. Über webtelligence IT consulting GmbH: Die webtelligence IT consulting GmbH bietet professionelle Dienstleistungen rund um die Microsoft SQL Server Datenbankplattform und Microsoft Dynamics AX Infrastruktur. Im Besonderen beraten wir zu Fragen des Performance Managements im Betrieb, der Testautomatisierung sowie Last- und Performancetest sowie in den Bereichen Data Warehouse und Business Intelligence und unterstützen dabei den gehobenen Mittelstand sowie national und international ausgerichtete Unternehmen und Organisationen in zahlreichen damit verbundenen Projektlösungen. Pressekontakt: webtelligence IT consulting GmbH Michael Roedeske Uferstraße 18 73630 Remshalden Deutschland 0049-7151-205259-0 [email protected] http://www.webtelligence-itc.net
0 notes
Text
Software Tester - Testautomatisierung (m/w/d) - Nürnberg - 53477/XG
http://dlvr.it/RYCHrL
0 notes
Text
heise | Puppet: Testautomatisierung für Puppet-Module
Wer Puppet zur Konfiguration des Rechenzentrums nutzt, sollte auch das Setup der Puppet-Umgebung selbst automatisieren. Read more www.heise.de/ratgeber/…... www.digital-dynasty.net/de/teamblogs/…

http://www.digital-dynasty.net/de/teamblogs/heise-puppet-testautomatisierung-fur-puppet-module
0 notes
Text
Der Glaubenskrieg um die Testautomatisierung
New Post has been published on https://www.adhocmitteilung.de/der-glaubenskrieg-um-die-testautomatisierung/
Der Glaubenskrieg um die Testautomatisierung
Mehr erfahren Jetzt ISTQB Trainingskurse, wie ISTQB® Certified Tester – Foundation Level Extension – Agile Tester, ISTQB® Certified Tester - Foundation Level - Extension Model-based Tester , ISTQB® Certified Automotive Software Tester (CTFL-AuT), ISTQB® Certified Tester - Advanced Level:Test Mana...
Ganzen Artikel zu Der Glaubenskrieg um die Testautomatisierung lesen auf https://www.adhocmitteilung.de/der-glaubenskrieg-um-die-testautomatisierung/
0 notes
Text
Der Glaubenskrieg um die Testautomatisierung
New Post has been published on https://www.unternehmensmeldungen.com/der-glaubenskrieg-um-die-testautomatisierung/
Der Glaubenskrieg um die Testautomatisierung
Mehr erfahren Jetzt ISTQB Trainingskurse, wie ISTQB® Certified Tester - Foundation Level - Extension Model-based Tester , ISTQB® Certified Tester - Advanced Level:Test Manager, ISTQB® Certified Tester - Advanced Level: Technical Test Analyst, ISTQB® Certified Tester - Advanced Level:Test Aut...
Ganzen Artikel zu Der Glaubenskrieg um die Testautomatisierung lesen auf https://www.unternehmensmeldungen.com/der-glaubenskrieg-um-die-testautomatisierung/ Mehr Wirtschaftsnachrichten und Unternehmensmeldungen unter https://www.unternehmensmeldungen.com
0 notes
Link
Das 2014 gegründete Unternehmen Appmatics prüft mobile Anwendungen auf Funktionalität, Usability und Performance. “Unser Ziel ist es, dass Apps und Internetseiten auf allen Telefonen und Computern so funktionieren, wie die Nutzer es erwarten. Dafür prüfen wir alle Funktionen auf möglichst vielen Geräten”, sagt Gründer Ayk Odabasyan (Foto: links). Derzeit beschäftigt die Kölner Jungfirma, deren Kunden etwa Duden, kicker und chefkoch.de sind, 14 Festangestellte und über 60 Werkstudenten. “Wir haben monatlich knapp 100 Testruns und finden dabei über 1.300 Bugs. Wir sind vollständig bootstrapped, also auch nicht fremdbestimmt und kommen dieses Jahr bei irgendwas zwischen 2 und 3 Millionen Umsatz raus”, erzählt der Rheinländer, der früher unter anderem als Produkt-Manager bei simyo gearbeitet hat. Im Interview mit deutsche-startups.de spricht er über Testautomatisierung, Sommerfeste und Freizeit. Wie würdest Du Deiner Großmutter Appmatics erklären? Liebe Oma, unser Ziel ist es, dass Apps und Internetseiten auf allen Telefonen und Computern so funktionieren, wie die Nutzer es erwarten. Dafür prüfen wir alle Funktionen auf möglichst vielen Geräten. Unsere Kunden profitieren dabei von unserer Sorgfalt und Geschwindigkeit, und haben mit uns die Sicherheit stets hohe Qualität zu liefern. Hat sich das Konzept seit dem Start irgendwie verändert? Wir sind sehr hands-on mit unseren eigenen Inhouse-Testern gestartet und wollten eine große Crowd mit tausenden von Clickworkern aufbauen. Es hat fast zwei Jahre gedauert bis wir verstanden haben, dass unser Inhouse-Vorgehen für unsere Kunden genau das passende Modell ist. Damit sind wir nicht so gut skalierbar und deswegen kaum auf dem Radar der großen Investoren, aber unseren Kunden bietet es einfach die besseren Resultate. Zudem haben wir unser Kernprodukt in den Jahren natürlich deutlich professionalisiert. Ansonsten hat sich zum Glück wenig daran geändert. Neben dem manuellen Testing bieten wir heute zusätzlich noch weitere Produkte. Wir unterstützen mit unseren Test-Engineers bei der Umsetzung von Testautomatisierung und wir bieten auch Testing von UI/UX, Voice und Chatbots. Wie funktioniert denn euer Geschäftsmodell? Für gutes und effizientes Testing braucht man punktuell viele gut ausgebildete Tester und viele Geräte. Viele Tester, zum einen, um nicht betriebsblind zu werden, indem man auch die Tester durchwechselt. Zum Anderen braucht man viele Augenpaare, um auf den Punkt in kürzester Zeit Ergebnisse für die Entwickler zu erzielen. Die vielen Geräte braucht man, um der großen Geräte-Fragmentation auf dem Markt entgegenzuwirken. Samsung, Huawei, und viele mehr verhalten sich systemisch einfach immer wieder unterschiedlich. Um aber zu gewährleisten, dass die Apps und Webseiten auf den verschiedenen Geräte funktionieren, müssen diese angeschafft und auch gepflegt werden. Wir haben heute über 1000 Device-/OS-/Browser-Konfigurationen in unserem Pool und können damit 85% der westlichen Märkte abdecken. Das ist ein großer Mehrwert für unsere Kunden. Wie genau hat sich Appmatics seit der Gründung entwickelt? Die Weihnachtsfeiern und Sommerfeste sind groß geworden! Nun ja, man selbst sieht im eigenen Unternehmen immer die ganzen Schwachstellen und alles das was nicht strukturiert und professionell abläuft. Ich glaube jedoch inzwischen, dass es selbst bei großen Konzernen hinter der Fassade genauso aussieht. Somit ist es wichtig sich immer weiterzuentwickeln, alles was man macht stets zu hinterfragen und sich dem wandelnden Markt anzupassen. Das machen wir weiterhin und, versuchen zudem die eigentlichen Ziele und Werte nicht aus den Augen zu verlieren. Nun aber einmal Butter bei die Fische: Wie groß ist Appmatics inzwischen? Bei Appmatics arbeiten 14 Festangestellte und über 60 Werkstudenten. Wir haben monatlich knapp 100 Testruns und finden dabei über 1.300 Bugs. Wir sind vollständig bootstrapped, also auch nicht fremdbestimmt und kommen dieses Jahr bei irgendwas zwischen zwei und drei Millionen Umsatz raus. Blicke bitte einmal zurück: Was ist in den vergangenen Jahren so richtig schief gegangen? Zum Glück fällt mir hier zumindest nichts Dramatisches ein. Wir hatten vielleicht ein paar personelle Fehleinschätzungen, aber sonst lief eigentlich immer alles gut. Das Einzige was ich immer etwas bereut habe, ist es bei einigen Entscheidungen nicht mutiger gewesen zu sein. Und wo habt Ihr bisher alles richtig gemacht? Bei unserer Work-Life-Balance. Wir haben selten bis in die Nacht im Office gesessen oder Wochenenden durchgearbeitet. Wir legen auch bis heute großen Wert auf unsere Freizeit und unsere Reisen. Ich persönlich finde das ist der richtige Weg, da wir am Ende arbeiten um zu leben. Und nur wenn man sonst happy und gesund ist, kann man gute Leistungen bringen. Wo steht Appmatics in einem Jahr? Ich hoffe wir haben in einem Jahr einige der guten Ideen und Projekte, die im Raum stehen, umgesetzt oder zumindest gezielt verworfen. Zudem steht bald der zweite größere Umzug von Appmatics an. Ich hoffe, dass wir da viele unserer Wünsche für eine noch bessere Arbeitsumgebung verwirklichen können. An dem Ort, an dem man so viel Zeit verbringt, will man sich auch wohlfühlen. Kölle is e jeföhl – #Köln In unserem Themenschwerpunkt Köln berichten wir gezielt über die Digitalaktivitäten in der Rheinmetropole. Mit über 650 Start-ups, 25 Gründerzentren, attraktiven Investoren und zahlreichen Veranstaltungen und Netzwerken bieten Köln und das Umland ein spannendes Ökosystem für Gründerinnen und Gründer. Diese Rubrik wird unterstützt vom Digital Hub Cologne und der Stadt Köln. Foto (oben): Appmatics
0 notes