Grundlagen moderner Netzwerktechnologien im Überblick – Teil 104 Unified Communications & Collaboration – Kommunikation High-end

Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Nachdem Microsoft alle wichtigen Kollaborationstrends in maximal möglichem Tiefschlaf verpasst hatte, wurde schon vor einiger Zeit mit dem Produkt „Live Meeting“ eine wichtige Ergänzung zu der ja sonst überaus erfolgreichen Office-Produklinie vorgestellt. Damit wurde gleichzeitig eine Diskussion über erweiterte Möglichkeiten der Unterstützung von Teams ins Leben gerufen – gut so, denn wenn man es einmal ehrlich betrachtet gibt doch erst die Beteiligung von Microsoft einem Trend den richtigen Drive. Mit Lync geht man dort jetzt noch einige Schritte weiter. Aber: was nutzen solche Produkte, wenn einem Unternehmen die Vision fehlt?

Der Lync-Server ist das neueste UCC-Produkt von Microsoft
Der Lync-Server ist das neueste UCC-Produkt von Microsoft
( Archiv: Vogel Business Media )

Der Hersteller muss sich natürlich auch ab und an etwas Neues einfallen lassen, und der klassische Office-Bereich ist ja wirklich ausgereizt.

Live Meeting soll drei wichtige Bereiche unterstützen:

  • Kollaborative Meetings
  • Training
  • Events

Etwas extravagant ist der letzte Punkt, hier möchte man die Möglichkeit schaffen, Tausende Benutzer in einem einzigen „virtuellen Saal“ zusammenzufassen und mit ihnen zu kommunizieren. Das ist natürlich auch eine wichtige Funktion in Richtung Home Entertainment.

Die hauptsächlichen Vorteile liegen nach Angaben des Herstellers in

  • Effektiveren Meetings
  • Höherer Produktivität
  • Reduzierter Reisetätigkeit
  • Wettbewerbsvorteilen
  • Erhöhtem Return of Investment

Das glauben wir sogar sofort. Der Autor selbst geht ungefähr nur dann zu Meetings, wenn es schwarz schneit. Ich empfinde Meetings als eine unglaubliche Zeitverschwendung und das haben schon viele Kunden zu spüren bekommen. Besteht ein Meeting aus N Personen, so redet normalerweise nur immer eine, also N-1 tun nichts. Das geht dann um, solange bis das Meeting vorbei ist. Ich persönlich habe immer den Eindruck, dass man zwei Stunden Meeting auch in fünf Minuten hätte erledigen können. Auch wenn man Meetings nicht so hasst und so gnadenlos öde findet, ihre Effektivität nimmt ungefähr proportional mit der Teilnehmerzahl ab.

Die Effizienz von Meetings

Die Produktivität ist ein weiterer Bereich. Leute, die im Meeting sitzen, sind für diese Zeit nur minimal produktiv. Aber auch das lässt sich natürlich leicht steigern. Wenn man Pech hat, entstehen bei Meetings Medienbrüche, weil ein paar Leute die Ergebnisse, wenn es überhaupt welche gibt, mit einem Bleistift irgendwo hinkritzeln.

Durch systematische Anwendung derartiger Überlegungen kommt man natürlich ganz schnell zu Kosten- und Wettbewerbsvorteilen.

Es gibt auch Produkte von anderen Herstellern in dieser Richtung. Ich will sie gar nicht gegeneinander bewerten, aber eines ist doch ganz klar:

Selbst wenn Kollaborationsprodukte grottenschlecht wären (was sie nicht sind), hätten sie enorm viele Vorteile alleine durch die Tatsache der Vermeidung von Meetings!!

Dabei spielt es letztlich nur eine Rolle hinsichtlich der Kostenersparnis, ob die Teilnehmer im gleichen Gebäude sind oder weltweit verteilt. Wesentlich ist vor allem die Vermeidung von Medienbrüchen und auch eine Tatsache, die eigentlich kein Hersteller in der Werbung erwähnt, die mir aber sehr stark auffällt: eine Art Inhaltssicherung, die sogar die Qualität einer Vertragssicherheit erlangen kann. Was meine ich damit? Nun, in einem normalen Meeting kann jeder rumlabern und anschließend später behaupten, er hätte das nie so gesagt oder sei falsch verstanden worden. Mit einem technisch unterstützen Meeting wäre es möglich, Aufzeichnungen (z.B. Voice oder Video) zu machen und auch Inhalte schriftlich festzulegen, auf die sich dann nachher jeder konsistent beziehen kann.

Team-Effizienz

Es gibt weitere Probleme mit der Team-Effizienz. Ich hatte ja schon erwähnt, dass die Effektivität eines Meetings mit der Teilnehmerzahl sinkt, aber besonders problematisch sind auch ggf. notwendige kurze Abstimmungen zu Details. Weder ein persönliches Treffen im Rahmen eines Meetings noch telefonische Abstimmungen sind wirklich optimal. Grade kurze Meetings können einen hohen Aufwand nach sich ziehen und Telefonate sind für Detail-Klärungen oftmals ungeeignet, wie man leicht feststellen kann, wenn man Details an einem größeren Dokument meint.

Auch z.B. im Projekt-Management gibt es vergleichbare Probleme. Ein vollständiges Projekt-Management ist in vielen Fällen bezogen auf das, worum es eigentlich geht, zu aufwendig, aber einfache Task-Listen sind zu schwach. Außerdem haben Task-Listen den Nachteil, dass sie in ihrer Effizienz sehr stark von den jeweiligen Erfahrungshorizonten des Erstellers und des Ausführenden abhängig sind. Nehmen Sie als Beispiel ein Kochbuch vom jemandem, der lange kocht („die kurz blanchierten Gemüsetoupets zusammen mit den konzentrierten Ingredienzien leicht moussierend passieren ...“) als Anleitung für jemanden, der auch Wasser anbrennen lässt und warme Würstchen als ernsthafte Herausforderung betrachtet (wie diesen Autor).

Herausforderung: verteilte Standorte

Blicken wir auf das in der Einführung vorgestellte Szenario der standortübergreifenden Kommunikation, gibt es eine Reihe weiterer Probleme. Die zentrale Verfügbarkeit von Informationen ist trotz bestehender Technologien wie Intranets zum Teil nicht immer optimal. Die zentrale Speicherung führt fast immer zu lokalen unkontrollierten Versionen, was ja eigentlich seit der Einführung von Notes nicht mehr sein sollte. Eine zentrale Speicherung ist nur dann nutzbar, wenn auch ein entsprechender Zugang existiert. Für alle Offline-Arbeiten wird eine lokale Kopie erzeugt, E-Mail mutiert zum dominanten File-Transfer Protokoll und letztlich wird das WAN oft unnötig stark belastet.

Die einfache Speicherung von Informationen löst nicht das Problem der Information und Abstimmung über Inhalte, Motivationen, Projektziele usw.

Es muss eine Lösung mit sowohl lokaler als auch Offline-Nutzbarkeit geben, die mit zusätzlichen Funktionalitäten angereichert werden kann. Letztlich kann man das auch als Synchronisation mit Zusatzfunktionen bezeichnen.

Eigentlich sollte es dieses Problem seit Notes nicht mehr geben, aber die Realität ist leider vielfach (aufgrund einer fehlenden, durchgängigen Vision!), dass es irgendwie irgendwo irgendwann Notes gab, aber dies durch die Einführung von Intranets in den Hintergrund getreten (worden) ist, zum E-Mail-Dienst verkam oder ganz in Vergessenheit geriet. Das ist einer der Gründe, warum ich mir bei der Darstellung von Intranets auch die Mühe gemacht habe, noch einmal deutlich abzugrenzen, was diese grade nicht können.

weiter mit: Mythos „always on“

Mythos „always on“

Noch haben wir bedingt durch die Entwicklung eine Situation, in der nicht alle Mitarbeiter oder Teilnehmer dauerhaft „online“ sein können. Viele Netze leben heute nur noch von dieser Tatsache, sonst würden sie wegen Überlastung ihr Hütchen nehmen und gehen. Offline-Nutzungen haben aber ihre klaren technischen Grenzen. Arbeiten mehrere Personen offline an einem Dokument, so können sich die Änderungen widersprechen und eine automatische Konfliktbereinigung unmöglich machen. Je länger die Offline-Phase wird, desto größer wird diese Gefahr. Diese Grenze hatte übrigens auch Notes, es kann ja nicht selbsttätig in die Semantik eingreifen.

Ist eine kooperative Bearbeitung von Dokumenten das Ziel, kann auch eine Vergabe von Rechten und/oder Rollen das Problem nicht lösen. Im Zweifelsfall muss ein Dokumenten-Management-System mit Konsolidierungsfunktionen eingesetzt werden.

Eine Reihe von Kollaborations-Funktionen basieren bisher auf teuren und komplexen Lösungen. Mehrpunkt-Audio- und Video-Konferenz-Lösungen existieren, sind aber im Kosten-Nutzen-Bereich unbefriedigend.

Zentrale Datenspeicherung und Synchronisation ist nicht wirklich neu, wurde aber bisher nur in einem geringen Umfang eingesetzt. Was fehlt, ist eine Funktions-Umgebung.

Die Gesamtspanne wurde bisher durch Mischungen unterschiedlicher Tools abgedeckt. Notwendig ist aber eine integrierte Lösung, die an allen Arbeitsplätzen präsent ist.

Die Notwendigkeit der Integration

Nach Ansicht von Experten benötigen wir den Übergang von einer Ausnahmefunktion in die Alltäglichkeit, um Kollaboration in eine neue Effizienzstufe zu führen. Da ist sicher richtig, aber wie wir wissen, kann das eine geraume Zeit dauern, ich erinnere nur an den Übergang zum „papierlosen“ Büro, der zunächst einmal der Papierindustrie ungeahnte Wachstumsraten beschert hat.

Die Nutzung von Kollaborationstools muss so selbstverständlich werden wie das Telefonieren, und genau das ergibt die Vision: Traditionelle Telefonie wird durch eine komplette Kollaborations-Umgebung ersetzt.

  • Alle am Geschäftsprozess beteiligten Mitarbeiter und Partner kommunizieren über das jeweils optimale Medium im Sinne von E-Mail, Sprache, Video und Applikationen
  • Im Kontext des Mediums ist ihre bestmögliche Erreichbarkeit gesichert
  • Die Kommunikation ist eingebettet in den Zugang zu Informationen und Funktionen
  • Endgeräte sind beliebig, einzig gemeinsames Kriterium ist ein Zugang zu IP und die Ausführbarkeit von Applikationen
  • Die Lösung basiert auf einem offenen Standard

Es ergeben sich logischerweise zwei Funktions-Bereiche: Offline und Online-Kollaboration.

Zur Offline-Kollaboration gehören gemeinsames Bearbeiten von Dokumenten, Management von Kommentaren, Änderungsvorschlägen und Konsolidierung einer Gesamtversion. Wichtig dabei ist natürlich die Einführung und Umsetzung von Dokumenten-Standards (Schriften, Bilder, Formate, Applikationen usw.

Die Online-Kollaboration umfasst Multipoint-Konferenzschaltungen für Sprache und Video, Online-Präsentationen und Online Bearbeitung/Sharing von Dokumenten und Applikationen.

Die Offline-Kollaboration kann in folgende hierarchische Funktionsbereiche differenziert werden:

  • Basics
  • Speicherung
  • Synchronisation
  • (eigentliche) Kollaborationsfunktionen

Basics sind

  • Teilnehmer-Verwaltung (Identität, Suche, Kontaktlisten-Verwaltung, Definition von Rechten an Dokumenten und Funktionen und Festlegung von Rollen in der Kollaboration)
  • Erreichbarkeit (Präsenz)
  • Betriebstechnik (Installation, Rollout, Lizenzverwaltung, Backup)
  • Sicherheit (Zugang, Art und Umfang der Authentifizierung, Übertragung)
  • Kalender (Meeting-Koordination und Gruppen-Kalender, Synchronisation mit bestehenden Kalendern)

Speicherungsalternativen sind zentral oder dezentral mit Offline/Online-Nutzbarkeit.

Synchronisation kann es zu einer zentralen Version oder zwischen dezentralen Versionen geben. Zu definieren sind Geschwindigkeit und gewünschter Aktualitätsgrad. Zur Synchronisation können Hierarchien gebildet werden. Es muss eine Möglichkeit und Regeln zur Handhabung von Konflikten geben. Bei Änderungen muss eine automatische „Alarmierung“ vorgenommen werden.

Funktionsbereiche schließlich sind

  • Datenarchiv
  • Viewer
  • Ko-Editing
  • Dokumenten-Produktion
  • Projekt-Management

Workspaces

Das Produkt „Virtual Office“ von Groove bietet eine Lösung, bei der die Teilnehmer hinsichtlich der Offline-Kollaboration in so genannten Workspaces arbeiten. Ein Workspace ist eine Ansammlung von Dokumenten mit einer Reihe von zugeordneten Funktionen. Die Workspaces sind lokal bei den Teilnehmern gespeichert und werden zwischen den Teilnehmern synchronisiert. Diese Synchronisation wird über Verwaltungsserver gesteuert und kann hierarchisch geordnet werden. Ändert ein Teilnehmer Informationen in einem Workspace, werden die anderen Teilnehmer über diese Änderung im Rahmen einer Alarmierung mit genauer Anzeige der Änderung informiert. Die Kernidee von Groove ist die dezentrale Speicherung von Daten und die Ergänzung dieser Daten um Funktionalität.

Als Bestandteile eines Workspaces gibt es obligatorische und optionale Funktionen. Obligatorische Funktionen sind

  • Dokumenten-Speicherung
  • Co-Editing von Word-Dokumenten
  • Präsentation von PowerPoint-Dokumenten
  • Viewer für die gespeicherten Dokumente incl. Visio
  • Excel Co-Editing (nicht enthalten, muss extra gekauft werden)

Typische optionale Funktionen, die einem Workspace zusätzlich zugeordnet werden können sind

  • Projekt-Management oder einfacherer Task-Manager
  • Instant-Messaging mit Diskussions-Whiteboard
  • Weblink-Liste
  • Co-Surfen
  • Kalender
  • Adressbuch
  • Weitere

Funktionen können auch mithilfe eines Forms-Managers individuell entwickelt werden. Außerdem gibt es eine Reihe von Third-Party Lösungen z.B. für Vertrieb und Dokumenten-Management.

weiter mit: Groove vs. SharerPoint

Groove vs. SharePoint

Der Vergleich von Groove mit einer zentralen Lösung wie Micosoft SharePoint zeigt, dass Groove wesentlich leistungsfähiger ist, weil die Funktionen deutlich umfangreicher sind und auch ergänzt werden können. Sharepoint kann übrigens als besonderer Workspace-Typ integriert werden.

Groove kann auch mit anderen Systemen kombiniert werden, wie z.B. einer externen Videokonferenzlösung.

Sieht man sich allerdings einen typischen Groove Bildschirm an, sieht man sofort, dass es schon ein 20 Zoll-Schirm sein sollte, sonst geht ein Teil der verschiedenen Informationen einfach unter. ComConsult Research hat das Produkt getestet und die Erfahrungen in den ersten sechs Wochen Produktivbetrieb sind überzeugend, die Grundidee ist gut. Die Kombination aus Speicher und Funktionen ist ein deutlicher Schritt in die richtige Richtung. Die dezentrale Speicherung ist einem zentralen Ansatz deutlich überlegen. Die Ergänzung mit einem Video-Konferenzsystem ist erforderlich. Allerdings ist die Synchronisations-Performance nicht wirklich Realzeit und der Service des Herstellers langsam.

Online-Kooperation

Kommen wir zur Online-Kooperation. Sie geht zurzeit funktional immer mehr in Richtung des Ersatzes lokaler Besprechungen, was ja, wie eingangs dargestellt, eine sehr lohnende Angelegenheit sein kann. Die Funktionsbereiche können in Analogie zur Offline-Kollaboration folgendermaßen gegliedert werden:

  • Basics und Meeting-Koordination
  • Konferenz
  • Präsentation
  • Application Sharing

Ein genereller Trend ist der Übergang zur Mehrpunkt-Konferenz, wobei Video in den nächsten Jahren eine immer dominantere Rolle einnehmen wird. Mittelfristig wird die Funktionalität in den Arbeitsplatz eingegliedert werden und definitiv das Telefon ablösen. Um die Applikations-Vielfalt zu unterstützen, wird der Trend auf Dauer zum Softphone gehen.

Generelles heutiges Problem ist die Bandbreite, die schon bei einer Zweierkonferenz zum limitierenden Faktor werden kann. Entscheidend ist die Kombination aus Codec und lokaler Rechenleistung. Für die volle Funktionalität muss eine Bandbreite von 1 bis 2 Mbps pro Verbindung zur Verfügung stehen. Erst neue Standards wie H.264 könnten die Situation verbessern.

Wir haben ja gesehen, dass die Weitverkehrsnetze zurzeit auch einer erheblichen Wandlung unterzogen sind und sich die Probleme mit der zunehmenden Verbreitung und den entsprechenden Anforderungen lösen lassen werden. Außerdem gibt es erhebliche lokale Unterschiede. Mit der flächigen Einführung von DSL hat man aber gesehen, wie schnell eine Zugangstechnologie hochgerüstet werden kann, wenn der Bedarf in der Breite vorhanden ist. Die Backbones selbst könnten heute schon theoretisch jeden Telefon- und Internet-Teilnehmer mit hinreichender Leistung versorgen. Probleme gibt es zurzeit beim Zugangsbereich und den entsprechenden Geschäftsmodellen.

Steht für eine längere Zeit wirklich keine nennenswerte Bandbreite zur Verfügung, können WAN-Optimizer wie Peribit, bessere Codecs und eine Trennung von Dokumenten (die sozusagen vorher mit E-Mail oder einem anderen geeigneten System verschickt und verteilt werden) von der eigentlichen Konferenz eine erhebliche Hilfe darstellen.

Tests von Online-Kollaborationstools gestalten sich schwierig, da verschiedene Komponenten wie Audio-Karten, Video-Karten, Kameras, Headsets oder eine schlichtweg zu geringe Rechenleistung das Ergebnis massiv beeinflussen können. Hier wird klar sichtbar, dass es sich noch um eine junge Technologie handelt, die sich, um es einfach zu sagen, noch im „Bastelstadium“ befindet. Wir haben aber bei anderen Bereichen gesehen, wie schnell sich solche Probleme erledigen können. Wesentlich ist hier das Interesse des Privatmarktes. Es ist zu befürchten, dass sich ohne die Begeisterung hinreichend vieler Privatpersonen für derartige Lösungen zu geringen Kosten zunächst nicht die Stückzahlen entwickeln werden, die für eine günstige und generell funktionierende Lösung notwendig sind. Aber es gibt einen erheblichen Trend in dieser Richtung. Was passiert, wenn sich der Privatmarkt entfaltet, kann man z.B. an den Digitalkameras sehen.

Bisher dominieren herstellerspezifische und Provider-basierte Produkte den Markt, wobei allerdings vielfach wichtige Funktionen, wie z.B. die Mitschnitt-Funktion bei Präsentationen, fehlen.

Es ist nicht Absicht dieses Abschnitts, Bewertungen einzelner Produkte vorzunehmen. Es zeichnen sich zurzeit weder wirklich eindeutige Entwicklungslinien ab noch eine Produktdominanz. Das liegt auch daran, dass der gesamte Bereich der mobilen Endgeräte noch gar nicht betrachtet wurde, aber gerade Hersteller wie Nokia haben aufgrund von Anforderungen lokaler Märkte hier noch einiges in der Entwicklungs-Pipe.

So ist z.B. in Japan das Handy-Videotelefonieren schon seit einiger Zeit Standard und es bestehen entsprechende Bandbreiten für die mobile Zugangstechnik. Auf dieser Basis lassen sich natürlich auch schöne integrierte Lösungen vorstellen, aber es wird noch mindestens zwei Jahre dauern, bis wir da ein klareres Bild bekommen. Ein ernsthafter Interessent hat heute nur die Möglichkeit, einfach ein paar Produkte auszuprobieren.

Bei den stationären Lösungen wird SIP eine neue Basis schaffen und H.264 wird Bandbreitenprobleme mindern.

In Zukunft wird Kollaborationstechnologie Normalität an jedem geeigneten Arbeitsplatz werden. Die Konzept- und Produktsituation sind vergleichbar mit E-Mail vor 15 Jahren. Und da hat es ja auch am Ende gut funktioniert.

weiter mit: Konsequenzen

Konsequenzen

Nach einer Phase der initialen Bestandsaufnahme müssen wir letztlich dazu kommen, Pläne für das weitere Vorgehen hinsichtlich der Entwicklung eines sinnvollen Plans für den nutzbringenden Einsatz moderner Kollaborationstechnologie zu entwickeln. Am Anfang stehen viele Fragen, vor allem viele falsche Fragen. Viele Verantwortliche konzentrieren sich nämlich zu sehr und zu schnell auf einen von ihnen überschaubaren Bereich und übersehen dabei die globalen Zusammenhänge. Falsche Fragen wären an dieser Stelle bspw. wie viele Router und Server gebraucht werden.

Diese Fragen treten zwar irgendwann auf, können aber in dem Moment zügig beantwortet werden, am besten von Leuten, die wirklich etwas davon verstehen. Die einzige wirklich wichtige und richtige Frage ist:

  • Was ist die fundamentale Auswirkung der Globalisierung auf die Art und Weise, wie ich mein Geschäft ausübe und wie kann ich die globalen Geschäftsprozesse am besten mit Kollaborationstechnologie unterstützen?

Diese Frage sollte im Mittelpunkt stehen. Um sie herum kann man beginnen, eine Strategie aufzubauen. Braucht man dann irgendwann Technologie, muss man sie eben einkaufen.

Man kann neun Schritte in drei Gruppen identifizieren, die bei der Suche nach einer ordentlichen Lösung durchlaufen werden müssen:

Strategie

  • 1. Planung des Geschäftsprozesses mit Zielen und Kundensegmentierung
  • 2. Erstellung eines konzeptionellen Storyboards mit Anwendungsmodellen und Strategien zur Zielfindung
  • 3. Projektplanung mit Sichtbereich und Zeitplanung sowie Vorausberechnung des zu erwartendenen Return of Investment

Implementierung

  • 4. Entwicklung von Inhalten, Kreativ Design, Workflow
  • 5. Anwendungsentwicklung, Codierung, Testen
  • 6. Systemintegration in Hardware und bestehende Systeme

Betrieb

  • 7. Durchführung des operativen Geschäfts
  • 8. Technischer Betrieb, Hosting, Reporting
  • 9. Business Evaluation, ROI Analyse, Change Management

Der Schritt 9 kann auf eine Parametrierung der Schritte 5 und 6 zurückweisen. 5, 6, 7, 8 und 9 bilden eine Schleife.

Gleichgültig, wo man selbst in diesem Prozess steht, ist es von besonderer Wichtigkeit, sich immer des Gesamt Prozesses bewusst zu sein, denn nur ein vollständig und professionell ausgeführter Gesamtprozess kann letztlich zu der gewünschten Lösungsqualität führen.

Wie der geneigte Leser schon sieht, ist der Bereich „Kollaborationstechnologie“ keine wirklich simple Angelegenheit, die man an ein paar Eckpunkten festmachen kann, sondern eher eine Art permanent laufender Prozess, der die Geschäftsprozesse im Unternehmen immer mehr mit Daten- und kommunikationstechnischer Unterstützung unterlegt. Nur wenn dieser Prozess schon gut fortgeschritten und Stück für Stück wirklich integriert ist, hat ein Unternehmen eine echte Chance bei der Globalisierung, denn letztlich kommt es ja darauf an, Netze und Systeme in möglichst optimaler Weise für die Unterstützung globalisierender Geschäftsprozesse einzusetzen. Und genau das setzt eine sinnfällige Vision voraus, eine Vision, die schon wie im ersten Kapitel angesprochen, sehr genau festlegt, was man letztlich erzielen möchte.

Nur unter der Regie einer tragfähigen Vision können die vielfältigen zur Verfügung stehenden technischen Elemente auch so zusammengesetzt werden, dass sie ein sinnfälliges Ganzes ergeben. Ich bin mir darüber bewusst, dass dieser Prozess in den meisten Unternehmen, die ich kenne, sehr schwierig sein wird, weil über die letzten Jahrzehnte jeder gewohnt war, mehr oder minder losgelöst vor sich hin zu planen und zu implementieren, was im einfacheren Falle zu gewissen Unzufriedenheiten, im schlimmsten Falle zur Feststellung der Geschäftsleitung, man habe doch jetzt schon wieder völlig sinnlos riesige Summen in DV versenkt, führt.

Wesentlich ist hier vor allem, dass die Kommunikation zwischen den unterschiedlichen Ebenen der Entscheidungsfindung in Unternehmen deutlich verbessert wird. Es gibt eine Reihe von Beispielen, die zeigen, dass das durchaus gut funktionieren kann.

Fassen wir zusammen

Technik für UC und Kollaboration gibt es genug. Standards wie SIP erlauben den Aufbau herstellerneutraler, zukünftig tragfähiger Lösungen. Diskussionen über Spezialitäten bei Servern usw. können den Spezialisten überlassen werden, führen aber substanziell nicht wesentlich weiter. Wichtig ist vor allem eine klare Vision für den nutzbringenden Einsatz der neuen Möglichkeiten. Bei ihrer Entwicklung helfen vor allem Erkenntnisse, die man in früheren Stufen wie Workgroup Computing und Intranets gewonnen hat.