Tumgik
#Telepräsenz
techniktagebuch · 2 years
Text
27.07.2022
Einige Leute nehmen regelmäßig mit Aussetzern an Videokonferenzen teil und so langsam spricht sich auch die technische Ursache dafür herum
Wenn man mit dem Internet schon so allerlei Dinge angestellt hat, als man allgemein noch den freudsamen Einwahltönen des analogen Modems lauschen musste, ist man zwangsläufig in Kontakt mit dessen technischen Grundlagen gekommen. Daher und weil ich ohnehin ganz gerne verstehe, wie Dinge funktionieren, sind mir Begriffe wie Latenz/Ping, Packetloss, Jitter oder Shared Medium absolut geläufig. Da das traditionell nicht allen so geht, erkläre ich die Begriffe und wie diese mit den konkreten Problemen zahlreicher an mich gerichteter Hilfeersuchen zusammenhängen gerne und häufig. Meistens ist den Leuten das komplett egal und die höflicheren tun wenigstens so, als würden sie das irgendwie interessant finden und verstehen und dieses Wissen in Zukunft für das eigene mündige Problemlösen nutzen. Die weniger höflichen Leute lassen gewöhnlich ihre Genervtheit ungefiltert in den zwischenmenschlichen Raum entweichen, womit man irgendwann leben lernt, was aber auch die Motivation für zukünftige freundliche Hilfeleistungen nicht gerade steigert. Dies sei hier erwähnt, um die Lektüre des leider gar nicht existierenden Pixibuches Weniger schlecht Hilfe in Anspruch nehmen schon mal in einem substanziellen Teil zu ersparen.
Dass man vor allem Interesse daran hat, dass das lästige technische Problem weggeht, ist für mich natürlich nachvollziehbar, es unterscheiden sich nur die Herangehensweisen. Und hier habe ich zuletzt eine erhebliche Änderung bemerkt, die ich vor allem der allgemeinen Aufgeschmissenheit unter harten pandemiebedingten Kontakteinschränkungen zuschreibe: Plötzlich rückten einerseits wegen der Abhängigkeit von technischen Kommunikationslösungen deren Widrigkeiten sehr in den Vordergrund, andererseits war externalisierte Problemlösung nicht mehr im gewohnten Maße verfügbar und der Wert eigener Problemlösefähigkeiten stieg rasant an.
Konkret für diesen Text: Während die meisten Menschen in meinem beruflichen und privaten Umfeld die von jetzt auf eben nötige Adaption an Chats und Videokonferenzen erstaunlich schnell und noch erstaunlicher ganz gut hinbekommen haben, fiel ein kleiner Teil immer wieder negativ auf. Ich spreche von denen, deren Video- und leider auch Audiostreams immer mal wieder oder ständig abgehackt sind und deren vorgebrachte Beiträge die anderen daher nur so mittelprächtig verstehen können. In meiner Wahrnehmung wird das ab einer gewissen Regelmäßigkeit als noch unprofessioneller wahrgenommen als schlechtes Bild wegen schlechter Kamera und Aufnahmesituation oder schlechter Ton wegen liebloser Mikrofonierung. Wobei alles drei in meinem Umfeld stark korreliert mit wenigen, aber umso frustrierteren Ausnahmen. Nun geht es in meinem beruflichen Kontext nicht nur um Besprechungen mit mehr oder weniger großer Tragweite, sondern vor allem auch um vorher in Präsenz und nun eben im Homeoffice vor der Kamera stattfindende Erwachsenenlehre. Und da hat man dann als die dozierende Person doch zumindest ein wenig Anspruch an die Professionalität des eigenen Auftritts und daran, dass als Mindestmaß wenigstens die Technik dem Verständnis auf der anderen Seite der Leitung nicht im Wege steht.
Sparen wir uns mal schlechte Kameras, lieblose Mikrofonierung und den gesamten Themenkomplex um das Entstehen von Bild und Ton im Homeoffice für einen späteren Beitrag auf und sprechen an dieser Stelle über das, was dann bei der Übertragung schief läuft. Anfangs konnte ich noch die Versuche beobachten, die Übertragungsprobleme auf die verwendete Softwarelösung zu schieben, doch spätestens nach dem zweiten Meeting war dann nicht mehr zu übersehen, dass von diesen Problemen nur bestimmte Personen betroffen sind, während die Softwarelösung den Videokonferenzdienst für eine große Mehrheit erstaunlich stabil und zuverlässig bereitstellt. Die Erkenntnis, dass die Probleme irgendwie an einem selber hängen, kommt also flott und ein erheblicher Gruppenzwang sorgt dann auch schnell für recht verzweifelte Hilfegesuche.
Audio- und Videokonferenzen sind Echtzeitdienste
Kurz ausgeholt: Audio- und Videokonferenzen sind Echtzeitdienste. Das bedeutet, dass es hier zeitlich keinen nennenswerten Spielraum für die vielen Tricks gibt, mit denen die Streamingdienste wie Netflix, YouTube etc. ihre Übertragungen so hinbiegen, dass sie auch an nicht ganz so zuverlässigen Internetanschlüssen reibungslos funktionieren. Eine Pufferung der übertragenen Datenpakete und ein mehr oder weniger langes Vorausladen vor dem aktuellen Abspielzeitpunkt kommt bei einer gerade stattfindenden Gesprächssituation also nicht in Frage. Vielmehr ist eine möglichst geringe Latenz, also die zeitliche Verzögerung zwischen Sendung und Empfang (hier inklusive Aufbereitungszeiten auf den Endgeräten), ein zentrales Qualitätskriterium. Überschreitet diese einen bestimmten Schwellenwert, fallen an naturgemäß praktisch latenzfreie Gespräche von Angesicht zu Angesicht gewöhnte Menschen sich laufend ins Wort. Möglicherweise erhöht sich dieser Schwellenwert gerade im Zuge der allgemeinen Gewöhnung an Telepräsenz und ich rechne mit baldigen Forschungsergebnissen dazu, aber dennoch wird eine merkliche Latenz unangenehm bleiben.
Um diese Latenz bei der Übertragung von Gesprächsinhalten gering zu halten, werden die in kleine Pakete aufgeteilten Daten in der Regel mit einem Übertragungsverfahren übertragen, das auf eine Quittierung und ggf. erneutes Senden verzichtet. Dabei wird in Kauf genommen, dass verspätete oder auf dem Weg verlorene Pakete fehlen und mithin auch die Daten darin. Moderne Audio- und vor allem Videokodierungsverfahren sind erstaunlich gut darin, das zu verschleiern, aber auch das hat natürliche Grenzen: Wenn mehr als hin und wieder mal einzelne Pakete fehlen, fehlen auch unüberbrückbar viele Daten, was sich zumeist in mehr oder weniger langen Aussetzern der Sprache oder, wesentlich weniger lästig, Ruckeln beim Bild zeigt.
Der Zusammenhang ist also sehr einfach: Stockt das Bild oder kommt der Ton nur unterbrochen an, sind nicht alle Datenpakete (rechtzeitig) übertragen worden. Oder eins der beteiligten Endgeräte ist schlicht überfordert, was den Betroffenen in aller Regel bereits an anderer Stelle aufgefallen ist und zumeist durch Ausschalten der Videoübertragung zu beheben ist. Ich stelle immer wieder fest, dass selbst dieser eigentlich simple Zusammenhang den allerwenigsten Hilfesuchenden bekannt ist und es gibt auch eine große Ehrfurcht vor dem, was da im Hintergrund passiert und ein Glaube daran, dass das sowieso nur Menschen mit magischer Expertise durchschauen können. Wenn man das aber einmal weiß, versteht man sehr schnell auch alles andere, was da dran hängt; und zwar ohne magische Fähigkeiten, allein mit einem Mindestmaß an kognitiven Fähigkeiten (sind im Kollegium durchweg vorhanden) und Motivation, diese auf das vorliegende Problem anzuwenden (vermehrt anzutreffen, als alle im Homeoffice auf sich gestellt waren).
Das Kernproblem heißt Packet Loss
Das Kernproblem ist also der Verlust von Datenpaketen, der treffend als Packet Loss bezeichnet wird. Nicht vergessen: Wenn es hohe Laufzeitschwankungen gibt (Jitter genannt), gelten bei Echtzeitanwendungen arg verspätete Pakete auch als verloren, weil sie dann auch nicht mehr verwendet werden können. Die zu klärende Frage ist nun also, ob das hier der Fall ist und wo dieser auftritt, damit man zumindest die Chance hat, das abzustellen. Die Frage nach dem Ob ist grundsätzlich sehr, im Konkreten aber leider gar nicht so leicht zu klären. Ich schicke die Leute dann zu dieser Website mit einem zuverlässigen Packet-Loss-Test und lasse sie dort einen schnellen Test durchlaufen. Der Teufel steckt leider im Detail, denn diesen Test muss man genau dann ausführen, wenn das Problem gerade sichtbar bzw. hörbar ist. Leider ist es nämlich so, dass das Auftreten von verlorenen Paketen meistens nur sehr sporadisch zu beobachten ist, was man ja auch schon sehr gut daran erkennen kann, dass der abgehackte Ton ebenfalls nicht durchgängig auftritt, sondern zumeist eher wie eine Art Anfall. Die Gründe hierfür sind leider mannigfaltig und nicht pauschal zu benennen, aber wenn es gerade mal wieder hakelt, sollen die Leute einfach mal schnell den im Hintergrund lauernden Test laufen lassen und mir dann einen Screenshot der Ergebnisseite zeigen. Das bekommen alle hin und eigentlich immer ist in dem dort gezeigten Diagramm dann auch für Laien bereits sehr deutlich zu erkennen, dass hier die Laufzeit der Testpakete zwischendurch stark ansteigt oder gar nichts mehr ankommt. Ich habe gerade nur einen sehr schlechten Screenshot von einem Video von einem Screenshot griffbereit, aber hier kann man sehr schön sehen, wie der Test bei einem Kollegen typischerweise aussah:
Tumblr media
In dem Diagramm zeigt sich der Packet Loss sehr schön als kurze Lücken mit jeweils einem hohen Berg daneben, das sind die deutlich verzögerten Pakete. Pakete, die ganz verschwinden, sind abseits von Funkübertragungen oder großflächig gestörter Netzinfrastruktur seltener. In dem Fall ist schon die Grundlatenz sehr hoch, weil der Test mit einer US-Gegenstelle gemacht wurde, daher fällt auch der Jitter besonders hoch aus. Besagter Kollege war im vorangegangenen Videocall stellenweise praktisch gar nicht zu verstehen, dieses Diagramm entspricht nur einzelnen kurzen Aussetzern, die wir in einem nachgelagerten Videogespräch noch beobachten konnten.
Missverständnis 1: Die beworbene Bandbreite gilt zumeist für die Downloadrichtung
Spätestens dann bekomme ich regelmäßig die Beteuerung zu hören, dass man aber doch einen extra schnellen Internetanschluss gebucht hat. Hier muss ich dann gleich drei Missverständnisse ausräumen, denn die gebuchte Uploadbandbreite kennt von dieser Gruppe fast niemand und die Überraschung ist oft groß, dass die beworbene Bandbreite in aller Regel nur für die Empfangsrichtung gilt und die Sendegeschwindigkeit gerne mal um den Faktor zehn bis 20 geringer ausfällt. Dummerweise ist die Senderichtung das, was im Homeofficebetrieb plötzlich wichtig wird, vor allem für die Fälle, wo sich unerwartet ganze Familien im Homeoffice wiederfinden. Und darauf hatte zuvor fast niemand geachtet, weil das Problem keins war oder unsichtbar blieb oder man nicht verstanden hat, was die Videos hochladenden Kinder denn da immer herumjammern. Die noch immer häufig anzutreffenden Altvertrag-Kabelanschlüsse mit beworbenen Bandbreiten von "bis zu" 100Mbit/s haben leider sehr häufig nur 5Mbit/s Upload, was bereits für einen einzigen Videostream in guter Qualität knapp ist. Ist man nicht alleine an dem Anschluss, reicht das dann nicht und das Video wird bei besseren Konferenzsystemen dann sehr pixelig und wegen reduzierter Bildrate auch ruckelig und bei schlechteren Systemen hagelt es Standbilder und Aussetzer, die dann gerne wegen fehlender Priorisierung auch ohne eigentlichen Packet Loss den Ton betreffen. Hier hilft dann, die Bildübertragung auszuschalten, um wenigstens den Ton zu retten. Was ebenfalls die wenigsten wissen: Der Upload wird auch von Datenübertragungen im Download beansprucht und zwar von den dabei anfallenden Quittungspaketen. Die sind nicht besonders groß, aber bei einem Bandbreitenverhältnis von 20:1 eben doch nicht einfach zu vernachlässigen.
Missverständnis 2: Speedtests decken Packet Loss nur selten auf
Das zweite Missverständnis, gerne belegt durch das Benennen von Speedtest-Ergebnissen, liegt in dem Umstand begründet, dass verlorene Pakete sich nur sehr wenig auf eine gemessene Geschwindigkeit auswirken. Wenn 95% der Zeit die Daten ungehindert fließen und in 5% nicht, dann hat man im Durchschnitt in 10 Sekunden Redezeit ein bis zwei deutlich störende Aussetzer in Videokonferenzen, der schöne Gigabitkabelanschluss wird beim Speedtest dann aber mit absolut unauffälligen 950MBit/s ins Ziel kommen, zumal dort verspätete Pakete trotzdem als angekommen gemessen werden. In meinem Kollegium verwende ich die Formulierung, dass ein Speedtest für das Problem (außer in extremen Ausnahmefällen) schlicht nicht einschlägig ist, was gut akzeptiert wird. Bei uns in der Praxis ist mir nur ein Fall begegnet, wo der Speedtest bereits so geringe Bandbreiten gemessen hat, dass an Videokonferenzen nicht zu denken war und da war der Person schon vorher klar, dass an ihrem ländlichen Wohnsitz das Internet nicht reichen würde. Ich gehe davon aus, dass es da eine gewisse Dunkelziffer gibt, weil den Betroffenen schon im Vorfeld bekannt war, dass sie langsames Internet haben und sie sich daher erst gar nicht um Hilfe bemühen.
Missverständnis 3: Kabelanschlüsse sind ein Shared Medium und Node-Splits lassen gerne mal auf sich warten
Viel spannender ist aber das dritte Missverständnis. Das betrifft vor allem die unglücklichen Menschen, die ihren Internetzugang über einen Kabelanschluss nach DOCSIS-Standard beziehen. Diese sind ein sogenanntes Shared Medium, was bedeutet, dass man sich die insgesamt zur Verfügung stehende Bandbreite (bzw. genauer das Frequenzband auf dem Kupferkabel) mit allen anderen im gleichen Netzsegment teilt. Wer schon mal mit Funkgeräten hantiert hat, kennt das Problem, denn Funk ist immer ein Shared Medium, das sich alle in Reichweite (beim Funk den gleichen Kanal nutzenden) teilen. Die Anbieter von Kabelanschlüssen werden nicht müde darauf zu verweisen, dass sie bei anhaltenden Bandbreitenproblemen auf einem Netzsegment dieses aufteilen und dies auch ständig und von sich aus tun. Leider zeigt die Praxis, dass das oft reichlich lange auf sich warten lässt.
Hierzu eine illustre Anekdote: In einem besonders schlecht funktionierenden Videotelefonat berichtet mir meine Gesprächspartnerin freudestrahlend, dass die uns schon über einen etliche Monate anhaltenden Zeitraum quälenden Probleme nun endlich als solche von ihrem Kabelanbieter anerkannt worden sind und Abhilfe in Form eine Node-Splits (=Teilung ihres Netzsegments) versprochen wurde. Es ist da ungefähr März 2021 und es wird sogar ein Datum im April genannt. Das sei ja erfreulich, entgegne ich, doch leider war vom April 2022 die Rede, also von einem weiteren Jahr mit einem schlecht funktionierenden und an dem Ort leider auch alternativlosen Kabelanschluss im Homeoffice.
Jedenfalls sind die einschlägigen Foren voll von Betroffenen und auch ich sehe neben etlichen Leuten ohne Probleme mit ihren Kabelanschlüssen eben auch diejenigen mit Problemen. Dummerweise äußern sich diese Kapazitätsengpässe zuerst in Packet Loss im Upload und erst in sehr schlimmeren Fällen in merklichen Einschränkungen bei der Downloadbandbreite. Die Anbieter verweisen also gerne auf ihre Speedtests und oft genug wird das Problem im Support mit Verweis auf gute Werte in Speedtests einfach geleugnet und/oder auf das lokale drahtlose Netzwerk geschoben. Nach mir zugetragenen Erfahrungen und reichlich Berichten in Foren hilft es hier in Hotlinegesprächen sehr, wenn man erwähnt, dass man den Packet Loss gemessen hat, als das Problem beim letzten wichtigen Videocall aufgetreten ist und man den Screenshot des Ergebnisses vorliegen hat. Um methodisch korrekt zu arbeiten, sollte man natürlich zuvor das lokale drahtlose Netzwerk als Fehlerquelle ausgeschlossen haben, indem man zumindest testweise seinen Computer über ein Kabel mit dem Netzwerk verbindet und auch dann testet, wenn nicht gerade alle anderen im Haushalt parallel zum Homeschooling irgendwelche Streams laufen haben. Denn diese beiden Einwände wurden mir ebenfalls schon häufiger als das Gespräch beendende Begründung für das Problem in Hotlinegesprächen weitergetragen. Gut, wenn man das dann bereits ausschließen kann, was dem Gegenüber auch signalisiert, dass man sich jetzt auch insgesamt nicht einfach abwimmeln lassen wird.
Eine unrepräsentative Erhebung
Kommen wir also zu den ernüchternden Zahlen meiner unrepräsentativen Erhebung aus verschiedenen Videocalls der letzten zwei Jahre. Ich frage nämlich, sofern es einigermaßen passt, alle von dem Problem Betroffenen direkt oder im Nachgang nach ihrem Problem. Also ob das regelmäßig auftritt (eigentlich bei allen) und was sie für einen Anschluss haben. Das waren gefühlt etwa 30 Fälle und das Ergebnis ist ungewöhnlich klar: Sofern nicht der schlechte WLAN-Empfang oder ein Engpass am zu langsamen Upload bereits bekannt war (oder durch testweises Nutzen eines Kabels als Auslöser identifiziert werden konnte), hingen beinahe alle regelmäßig Heimgesuchten hinter einem DOCSIS-Kabelanschluss. Mit anderen Anschlussvarianten gab es nur dann regelmäßige Probleme, wenn nur ein zu langsamer Upload verfügbar war, etwa 1MBit/s und weniger. Einige hatten ihren Kabelanschluss gerade erst wegen sehr attraktiver Bepreisung auf einen mit 1000MBit/s im Download und 50MBits/s im Upload hochstufen lassen (mal wieder ein Verhältnis von 20:1) und bei denen konnte der Support des Anbieters das Problem meines Wissens nach auch immer weitgehend beheben, teilweise sogar noch während des laufenden Anrufs (ich war nicht dabei, aber so ist es mir ausgerichtet worden). In den Foren munkelt man von verschiedenen Fehlerkorrekturparametern, die die Hotline beeinflussen kann. Dennoch tritt das dort noch immer auf, immerhin aber nur noch sehr vereinzelt statt bei praktisch jedem Videocall.
In dem Kontext wundert mich die gerade aktuelle Schlagzeile auch nicht, dass der größte Anbieter von solchen Kabelanschlüssen in Deutschland einen Rückgang eben dieser meldet: Aus meiner Sicht ist in den letzten zwei Jahren im Homeoffice vielen das Problem erstmals begegnet und dass das weit überwiegend DOCSIS-Kabelanschlüsse betrifft, ist vermutlich auch nicht nur von mir beobachtet worden. Möglicherweise hat die Pandemie durch die Normalisierung von Homeoffice und Telepräsenz auch die Erkenntnis in breitere Bevölkerungsschichten getragen, dass ein ewig heruntergebetetes "wieso, wir haben doch mit DOCSIS längst Gigabit-Internet" langfristig eben gerade keinen FTTH-Glasfaserausbau ersetzt. Mein FTTH-Anschluss kennt solche Probleme jedenfalls nicht, während mein zuvor genutzter (weil für ein Jahr geschenkter) DOCSIS-Anschluss trotz nominal mehr als ausreichender Bandbreite nicht mal in der Lage war, zur Primetime zuverlässig einen stabilen Netflix- oder YouTube-Stream zu übertragen, von häufiger stockenden HTTP- und vor allem FTP-Verbindungen ganz zu schweigen. In einem Neubaugebiet mit vermutlich einem frisch installierten eigenen Netzsegment hatte ich naiverweise mehr erwartet und die letzten drei geschenkten Monate dann verfallen lassen. Ich habe zur Kenntnis genommen, dass ein Tausch des ranzigen Routers gegen eine Fritz!Box in manchen Fällen die Situation bessern soll, aber ich wollte der schlechten Leitung nicht noch Geld hinterherwerfen.
Also an all die zahlreichen Menschen, die jetzt erbost aufspringen und mir einen Lobgesang auf ihren tollen DOCSIS-Anschluss singen wollen: Freut Euch einfach, dass es bei Euch keine solchen Probleme gibt und hofft, dass das auch so bleibt. Diese Freude darf selbstverständlich auch besungen werden.
Unsere Stadtwerke haben zu Beginn der Lockdowns übrigens sehr kurzfristig die Tarifstruktur überarbeitet und allgemein mehr Bandbreite, aber vor allem mehr Upload freigegeben, zum gleichen Preis und auf Anfrage auch für Bestandskunden. Die Begründung: Jetzt im Homeoffice können unsere Bürgerinnen und Bürger vermutlich mehr Bandbreite gut gebrauchen. Seitdem habe ich einen gut bezahlbaren Anschluss mit 500/250MBit/s, praktisch ohne Packet Loss und einem stabilen Ping von 1-2ms zu den städtischen Schulservern und zum nächsten großen Austauschknoten (der hier sehr nah ist) und um 9ms zum DE-CIX in Frankfurt.
Ceterum censeo: An Glasfaserausbau führt kein Weg vorbei
Ich weiß, es will niemand mehr hören, aber man kann es nicht oft genug sagen (etwa hier): An Glasfaserausbau führt kein Weg vorbei und die zurückliegende Lockdown-Homeoffice-Videocall-Situation hat diese Erkenntnis erstmals wirklich in die Breite gebracht.
Wobei ich auch sehr wenige Klagen über VDSL/Vectoring-Anschlüsse gehört habe, die kriegt man halt nur noch immer nicht flächendeckend mit den komfortablen Vectoring-Bandbreiten, mitunter auch mitten in Zentren von Großstädten nicht, Pech gehabt. Viel mehr wird da auch nicht mehr gehen und irgendwie ist es auch erst jetzt im Zeichen der Energiekrise Thema, wieviel Strom breites Breitbandinternet über Kupferleitungen im Vergleich zu Glasfaserleitungen eigentlich verbraucht, wenn man das an Millionen von Anschlüssen so betreibt. Ich will damit an dieser Stelle lieber gar nicht erst anfangen und verweise stattdessen auf diesen kurzweilig aufbereiteten Beitrag vom ZDF Magazin Royale zur frustrierenden Geschichte des deutschen Glasfaser-Nichtausbaus.
(Gregor Meyer)
5 notes · View notes
gaminggadgets · 4 years
Text
Euer Smartphone kann mehr, als ihr glaubt. Mit Smartipresence wird aus eurem Telefon ein cleverer Roboter, der euch durch die Wohnung begleitet.
Telepräsenz ist das Zauberwort der Gegenwart und Zukunft: Ihr seid von lieben Menschen physisch zwar weit entfernt, fühlt euch ihnen dank moderner Technik sehr nah. Das kann über Virtual Reality gut funktionieren, aber auch Smartpresence geht in diese Richtung. Denn durch diesen Roboter sollen eure Familienmitglieder oder Freunde immer bei euch sein.
So funktioniert Smartipresence
Die Grundidee ist eine simple: Ihr bekommt mit Smartipresence einen Bausatz, mit dem ihr ein Vehikel basteln könnt. Pappe, Räder, etwas Elektronik – mehr braucht’s erstmal nicht. Dazu gesellt sich eine flexible Halterung, in der ihr euer Smartphone steckt. Im besten Fall führt ihr beispielsweise eine Video-Unterhaltung mit einem Freund oder einer Freundin, der Roboter passt sich euren Bewegungen selbständig an. Und lauft ihr durch die Wohnung oder ändert eure Perspektive, reagiert Smartipresence entsprechend. So entstehen natürlicher wirkende Unterhaltungen.
Ideal für die Familie. (Foto: Smartipresence)
Der Basis-Bausatz aus Pappe. (Foto: Smartipresence)
Smartipresence lässt sich aber auch modifizieren, indem ihr statt der Papp-Konstruktion LEGO-Bauklötze oder gar Kunststoff aus dem 3D-Drucker einsetzt. Noch stabiler wird es, wenn das Robot-Kit mit Teilen eines ferngesteuerten Autos kombiniert wird. Hier könnt ihr euch austoben, wenn ihr tüfteln wollt.
Das Gegenüber steuert selbst
Eine Verbindung zwischen zwei Personen erfolgt über eine iOS- oder Web-App (Android). Das Gegenüber muss nicht einmal zwingend ein Smartphone besitzen, es kann auch ein Laptop mit vorhandener Webcam sein, um euch via Smartipresence in euren eigenen vier Wänden zu besuchen. Der Pilot in der Ferne kann sich ebenfalls bewegen und in gewünschte Richtungen schauen, um nichts zu verpassen.
https://www.kickstarter.com/projects/rossatkin/smartipresence-cardboard-telepresence-robot
Für die Fertigstellung von Smartipresence benötigen die Erfinder noch ein wenig Geld, das sie bereits bei Kickstarter eingenommen haben. Dort könnt ihr euch einen Bausatz für etwas über 60 Euro sichern. Für dieses Sümmchen bekommt ihr alle nötigen Komponenten, mit denen ihr aber auch einen KI-gesteuerten Roboter oder einen Teeautomaten erschaffen dürft. Die Software basiert übrigens auf Arduino, ihr könnt den Bot also auch individuell programmieren – entsprechende Kenntnisse vorausgesetzt.
Mit dem Smartipresence verwandelt ihr euer Smartphone in einen Telepräsenz-Roboter. Wieso und wozu ist das gut? Euer Smartphone kann mehr, als ihr glaubt. Mit Smartipresence wird aus eurem Telefon ein cleverer Roboter, der euch durch die Wohnung begleitet.
0 notes
electronicsnearme · 5 years
Text
Bühne frei für spannende Innovationen: Reply präsentiert sich bei der Xchange in München [ Werbung ]
Bühne frei für spannende Innovationen: Reply präsentiert sich bei der Xchange in München [ Werbung ]
Von automatisierten Lieferketten über virtuelle Autorennen bis hin zur holographischen Telepräsenz – der Juni steht bei Reply traditionell im Zeichen des Austauschs auf der Reply Xchange. Und so folgten, genau wie in den vergangenen Jahren, rund 1.000 Kunden und Mitarbeiter der Einladung in die BMW Welt in München, um Innovationen, Produkte und Technologien der internationalen Reply Gruppe…
View On WordPress
0 notes
Link
Die besten Beispiele wie künstliche Intelligenz unser Leben verändert, wird spätestens auf der CeBIT-Messe in Hannover deutlich zu sehen sein. In diesem Jahr sind die Hauptschwerpunkte Roboter, Drohnen und virtuelle Realität in ganz genauen Anwendungsbeispielen. Laut den Veranstaltern wird sich das Messegelände mit Sicherheit in ein futuristisches Schaufenster verwandeln, da vom japanischen Partnerland über einhundert Technologieunternehmen für diese wichtige Ausstellung erwartet werden. Die CeBit ist in der digitalen Welt schon lange ein bedeutender Richtungszeiger und Trendmesser. In diesem Jahr soll allerdings bestens verdeutlicht werden, wie mittlerweile die Grenzen zwischen Maschinen und Menschen immer mehr verschwinden. Was sind die aktuellen Trends in Bezug auf KI? Die Welt wird aufgrund von künstlicher Intelligenz immer schlauer. Schon jetzt sieht die Zukunft damit grenzenlose Möglichkeiten vor. Sie kommt bereits in der Medizin für Diagnosen zum Einsatz, für Behandlungspläne und übrigens auch schon für juristische Schriftsätze. Maschinen waren ehemals dazu da, für uns die schweren Arbeiten abzunehmen. In der heutigen Zeit erleichtern sie uns allerdings das Denken. Mit einer Spracherkennungssoftware beispielsweise schreibt die KI für uns die Textnachrichten am Smartphone und auch Sprachen lassen sich in nur wenigen Tagen über das mobile Endgerät lernen. Die meisten Anwendungen scheinen aus einem Science-Fiction Film zu stammen. Fahrzeuge, die autonom durch die Gegend fahren, sind einer der besten Beweise dafür. Wer davon noch nicht überzeugt ist, hat auf der CeBIT dazu eine tolle Gelegenheit. Zu den Trendthemen zählen nämlich auch die mobile Welt der Zukunft, wobei der Hersteller vom Tesla Elektroauto seine neuen Ideen präsentieren wird. Aber auch die fahrerlosen Fahrzeuge können auf der Messe ausprobiert werden, da unter anderen auch autonome Shuttle Busse von den Organisatoren eingesetzt werden. Roboter Zwillinge Wer der Ansicht ist, dass es sich bei Robotern doch eigentlich nur um Maschinen handelt, sollte sich unbedingt den Roboter Zwilling vom Prof. Hiroshi Ishiguro ansehen. Sein künstlicher Stellvertreter aus Silicium und Silikon zählt zu einem der größten Highlights weltweit. Der japanische Robotiker an der Osaka Universität hat es sich zur Aufgabe gemacht, künstliche Lebenspartner zu schaffen. Sein eigener Zwilling ist meistens auf der ganzen Welt mit Assistenten unterwegs, um Vorträge zu halten. Gesteuert wird der Android über das Internet. Der Ton, Mimik und Gesten werden durch eine spezielle Software übertragen. Obwohl Ishiguro sein eigenes Doppel schon seit fast 10 Jahren entwickelte, wird der Roboter noch weiter detailliert. Der persönliche Zwilling hat die eigenen Haare von seinem Entwickler und sogar die Poren der Haut sind genauestens nachmodelliert. Wer es sich vom Preis her leisten kann, hat also die Möglichkeit seinen eigenen Klon als Freund, Lebenspartner oder auch als beruflichen Doppelgänger zu kaufen. Innovative Drohnentechnologie Den intelligenten Flugkörpern steht mit Sicherheit noch eine große Zukunft im Business Umfeld bevor. Der Drohnen Park im Freigelände der CeBit wird die konkreten Einsatzfelder mehr als verdeutlichen, egal ob sie an einer Ölplattform zum Einsatz kommen, oder bei Wartungsaufgaben, wie beispielsweise bei Solarkollektoren. Drohnen sind ein sehr wichtiger Bestandteil was das Internet der Dinge angeht. Die generierten Daten und Ergebnisse in 3D verdeutlichen genau, warum sie für Entscheidungen eine bedeutende Grundlage bilden und welche neuen Wertschöpfungen daraus gezogen werden können. Für die notwendige Datenanalyse ist eine umfassende Infrastruktur der Server vorgesehen. Die Drohnentechnologie und natürlich auch ihre Organisationen entwickelten sich schon in den letzten Jahren mit einer wirklich rasenden Geschwindigkeit. Mittlerweile gibt es mit dem Shooting Star von Intel sogar einen 280 Gramm schweren Drohn nur für Lichtshows. Dieser Qauadrocopter ist mit unzähligen LEDs ausgerüstet, die mehr als vier Millionen Farbkombinationen ermöglichen. Klar, dass es sich dabei um ein richtig spektakuläres Level von einer modernen Lichtshow handelt. Mixed-Reality-Technologien Bei den Mixed-Reality-Technologien handelt es sich vorwiegend um die Interaktion zwischen Maschinen und Menschen. Das DFKI (Deutsche Forschungszentrum für künstliche Intelligenz) hat beispielsweise ein hervorragendes System entwickelt, mit dem ein Roboter ferngesteuert werden kann. Die Steuerung erfolgt durch menschliche Gesten, auch dann, wenn sich die Maschinen in einem anderen Raum befinden. Anwendungsgebiete findet man beispielsweise bei der Herstellung und Handhabung von gesundheitsschädlichen Stoffen wie Chemikalien. Mixed-Reality basiert sich im Prinzip aus der Virtual Reality, sowie auch aus der Agumented Reality. Die Mixed-Reality-Technologien umfassen also alle Aspekte aus beiden Bereichen. Praktische Einsatzgebiete sind nicht nur die Handhabung von Gefahrgütern, sondern auch die Fernwartung, Teleproduktion und Telepräsenz. Objekte lassen sich mit Unterstützung der Mixed-Reality-Systeme in einer 3D Repräsentation live manipulieren. In der Regel erfolgt die Manipulation durch die HoloLens Brillen. d!conomy – no limits Dabei handelt es sich um das Topthema der wichtigsten Veranstaltung weltweit für Digitalisierung. Die CeBIT wird dieses Jahr sicherlich mit das beste Beispiel sein, wie die Grenzen zwischen Virtualität und Realität in der Praxis verschwimmen. Digitale Transformationen schaffen komplett neue Geschäftsmodelle und verändern dadurch auch die ursprünglichen Spielregeln der Wirtschaft. Die Möglichkeiten hierzu sind absolut unbegrenzt. Der diesjährige Slogan der IT-Leitmesse steht übrigens für die englischen Begriffe von Digitalisierung und Wirtschaft und gibt mit „no limits“ einen deutlichen Hinweis darauf, was in Zukunft in dieser Hinsicht noch alles zu erwarten ist. Wie künstliche Intelligenz unser Leben verändern wird, bleibt abzuwarten. Auf jeden Fall steht fest, dass die Zukunft in dieser Hinsicht noch sehr viele Überraschungen bringen wird. Artificial Intelligence ermöglicht den Maschinen immer deutlicher mit bestimmten Situationen fertig zu werden, für die bisher nur der Mensch zuständig war. Ein gutes Beispiel hierfür ist übrigens der Roboter, der mittlerweile selbständig perfekt gebratene Burger in einer Fastfood-Kette herstellt. Der Gargrad wird kontinuierlich über Thermalsensoren und Kameras überprüft. Der Roboter Flippy basiert im Vergleich zu anderen Assistenten in der Küche auf KI-Software. Passend zum Thema: “Künstliche Intelligenz: 10 Start-ups die jeder kennen sollte” Zum AutorPhilipp Egger ist ein professioneller Redakteur und ein erfahrener Content Manager bei Essayhilfe. Sie können auch ihn direkt über Facebook erreichen. Kennen Sie schon unseren #StartupTicker? Der #StartupTicker berichtet tagtäglich blitzschnell über die deutsche Start-up-Szene. Schneller geht nicht! Foto (oben): Shutterstock
0 notes
igamezonenet · 8 years
Text
Hand in Hand: Mensch-Roboter-Kollaboration auf der CeBIT 2017
Foto: DFKI
Hannover. Drei baugleiche Roboter auf dem DFKI-Stand werden von einem Operator auf dem benachbarten BMBF-Stand über eine HoloLens-Brille telemanipuliert. Außerdem zeigen Forscher die Telemanipulation von zwei Robotern (Universal Robotics UR, MiR 100) per Live-Schaltung in das MRK4.0-Innovationslabor des DFKI am Standort Saarbrücken.
Ein weiteres Thema ist die Telemanipulation in der unmittelbaren Umgebung. Dazu werden drei Roboter – ein ABB Yumi, ein Universal Robotics UR und ein Mobilitätsroboter MiR 100 – zusammen mit dem Operator am BMBF-Stand gemeinsam Aktionen ausführen. Der Operator steuert die Abläufe in einer Mixed-Reality-Umgebung (HoloLens) mit Gesten. Die Roboter führen die Befehle aus und greifen oder bewegen Objekte auf einer Ablage, die auf dem Mobilitätsroboter montiert ist. Das Objekt wird so sicher zwischen den Leichtbaurobotern transportiert. Ziel ist die Einübung des fehlerfreien Handlings der Roboter in einer Gefahrgut-Situation.
Praktische Einsatzgebiete sind unter anderem in der Fernwartung, Telepräsenz, Teleproduktion bzw. Teleoperation sowie Mensch-Roboter-Kollaboration (MRK).
Weitere Details zur Mensch-Roboter-Kollaboration erläutert der Head of Mixed Reality Development vom DFKI, Mohammad Mehdi Moniri, am CeBIT-Mittwoch, 22. März von 15 bis 15.30 Uhr auf dem Vortragsforum Future Talk in Halle 6, Stand A65.
Wuelle
Der Beitrag Hand in Hand: Mensch-Roboter-Kollaboration auf der CeBIT 2017 erschien zuerst auf iGamezone.
from iGamezone.net http://ift.tt/2lFK2KN
0 notes
hansleger · 11 years
Text
Was gute Videokonferenzsysteme kosten dürfen
Bei der Überlegung zur Anschaffung von Videokonferenzsystemen für das Unternehmen oder für den Arbeitsplatz, werden nicht nur die Vor- und Nachteile abgewogen, sondern auch Kosten und Nutzen in den Gedanken mit einbezogen. Dafür ist es jedoch notwendig einen Überblick darüber zu haben, mit welchen Kosten für  Videokonferenzsysteme gerechnet werden kann.
Im Hinblick auf die verschiedenen Arten der Konferenzsysteme, ist auch die Bandbreite der Kosten variabel. Die Arbeitsplatzsysteme sind dabei die kostengünstigste Variante. Je nach Anbieter und Anforderungen, beginnen die Preise für diese Videokonferenzsysteme bei wenigen hundert Euro. Teilweise liegen sie sogar noch darunter. Oft reicht es aus, sich hier eine Kamera und ein Mikrofon zuzulegen und die Software zu erstehen. Dann können die Arbeitsplatzsysteme direkt genutzt werden. Allerdings ist es auch notwendig, dass der Gegenüber ebenfalls über diese Ausstattung verfügt. Inzwischen gibt es auch die Möglichkeit, Anbieter im Internet für Konferenzen zu nutzen. Auf diese Weise ist es nicht notwendig, spezielle Software anzuschaffen. Hier genügen Kamera und Mikrofon.
Bei den Konferenzraumsystemen sind die Preise bereits deutlich höher und ebenfalls davon abhängig, was von dem Kunden gewünscht wird. Bereits fertige Systeme, die sich in vielen Räumen installieren lassen, wenn die Voraussetzungen stimmen, gibt es ab 2.000 Euro. Hier sind dann Kamera und Software enthalten. Die Installation kann auf Wunsch ebenfalls von dem Anbieter durchgeführt werden. Unternehmen, die jedoch bestimmte Anforderungen an ihre Videokonferenzsysteme stellen und sich diese separat zusammensetzen lassen, rechnen bei der Anschaffung mit einem höheren Betrag. Es lohnt sich aufzurechnen, ob die Investition sich durch andere Einsparungen als erfolgreich zeigt.
Deutlich kostenintensiver und auch mit einem höheren technischen Aufwand verbunden, ist die Installation einer Telepräsenz-Anlage. Nicht alle Räumlichkeiten eignen sich für den Aufbau dieser Videokonferenzsysteme. Sind jedoch alle notwendigen Grundlagen vorhanden, können sich Kunden ein Angebot machen lassen. Je nachdem, welche Features die Anlage aufweisen soll, setzen sich auch die Preise zusammen. Durch den höheren technischen Aufwand ist auch eine regelmäßige Wartung notwendig. Diese Wartung wird meist von den Anbietern selber mit zur Verfügung gestellt. Hier können weitere Kosten entstehen, die in die Planung mit einbezogen werden sollten. Trotz der hohen Anschaffung rentiert es sich in der Regel dennoch, einmalig in die Anschaffung eines solchen Systems zu investieren.
0 notes
surveycircle · 5 years
Photo
Tumblr media
New on my Pinterest: New Studies @SurveyCircle http://bit.ly/2De7Qh7 : Teilnehmer für Online-Studie gesucht! Thema: "Einflüsse sozialer Präsenz auf die Wahrnehmung von Telepräsenz" http://bit.ly/2nttPyr via @SurveyCircle #verbraucherpsychologie #telepräsenz #SozialePräsenz #bindungstheorie #studie #umfrage #surveycircle http://bit.ly/2li1gDh #SurveyCircle #Research #Survey #Study #CallForParticipants #Participants #Respondents | Participate now: http://bit.ly/2lZVgj1
0 notes
surveycircle · 5 years
Photo
Tumblr media
New on my Pinterest: New Studies @SurveyCircle https://srvy.cl/2F2FfkG : Teilnehmer für Online-Studie gesucht! Thema: "Einflüsse sozialer Präsenz auf die Wahrnehmung von Telepräsenz" https://srvy.cl/2zGMN7p via @SurveyCircle #verbraucherpsychologie #telepräsenz #SozialePräsenz #bindungstheorie #studie #umfrage #surveycircle https://srvy.cl/2PA03FG #SurveyCircle #Research #Survey #Study #CallForParticipants #Participants #Respondents | Participate now: https://srvy.cl/2LkBW8N
0 notes
surveycircle · 5 years
Text
Teilnehmer für Online-Studie gesucht! Thema: "Einflüsse sozialer Präsenz auf die Wahrnehmung von Telepräsenz" https://t.co/aY1NGYdiZY via @SurveyCircle#verbraucherpsychologie #telepräsenz #SozialePräsenz #bindungstheorie #studie #umfrage #surveycircle pic.twitter.com/zxXtB29973
— Daily Research (@daily_research) September 26, 2019
0 notes
surveycircle · 5 years
Text
Teilnehmer für Online-Studie gesucht! Thema: "Einflüsse sozialer Präsenz auf die Wahrnehmung von Telepräsenz" https://t.co/aY1NGYdiZY via @SurveyCircle#verbraucherpsychologie #telepräsenz #SozialePräsenz #bindungstheorie #studie #umfrage #surveycircle pic.twitter.com/ueWFvBtW5d
— Daily Research (@daily_research) September 2, 2019
0 notes
techniktagebuch · 17 years
Text
20.5.2007
Über fehlende Telepräsenztools
[20.05.2007 01:52:49] Aleks Scholz says: es ist uebrigens sehr schade, dass du nicht ab und zu hier ist, ich glaube, es waere lustiger. [20.05.2007 01:53:01] Kathrin says: wo hier? in Chile? [20.05.2007 01:53:23] Aleks Scholz says: ja, also. hier halt. [20.05.2007 01:56:25] Kathrin says: man bräuchte so ein Telepräsenztool [20.05.2007 01:56:42] Kathrin says: wo man sich hin und wieder zuschalten könnte, mit Video und so. [20.05.2007 01:57:04] Aleks Scholz says: auf jeden fall, ja [20.05.2007 01:59:00] Kathrin says: hätte auch den Vorteil, dass man dann hier, wenn man angesprochen wird, das Headset abnehmen und geistesabwesend sagen könnte "äh, wie? entschuldige, ich war gerade in Chile am Strand" [20.05.2007 01:59:28] Aleks Scholz says: ach, ja. man braeuchte ein to go video skype. [20.05.2007 02:00:18] Aleks Scholz says: kann doch eigentlich nicht so schwer sein, hm. [20.05.2007 02:00:58] Kathrin says: man bräuchte halt eine internationale UMTS-Flatrate oder so was. [20.05.2007 02:01:04] Kathrin says: ich glaube, daran scheitert es im Moment noch.
Quelle: Skypelog
(Kathrin Passig)
0 notes