Neue Funktionen und Verbes­se­rungen in DeepVA: Changelog Mai 2024

Bei DeepVA sind wir ständig bestrebt, unsere Software und Dienst­leis­tungen zu verbessern, um unseren Nutzern das bestmög­liche Erlebnis zu bieten. Wir freuen uns, die neuesten Updates und Verbes­se­rungen, die im Update von Mai 2024 veröf­fent­licht wurden, zu teilen. Unsere jüngsten Änderungen umfassen eine Mischung aus neuen Funktionen, Verbes­se­rungen und Korrek­turen, die darauf abzielen, die Funktio­na­lität und Benut­zer­zu­frie­denheit zu erhöhen.

Transkript-Editor

Unser wichtigstes Update ist der neue Transcript Editor, der die nahtlose Bearbeitung und Verwaltung von Transkripten aus der Speech Recognition des Deep Media Analyzer ermög­licht. Diese Funktion wurde entwi­ckelt, um mehr Kontrolle und Flexi­bi­lität im Umgang mit der Speech-to-Text Ausgabe zu ermög­lichen.

Der Transkript­editor wird über den neuen Button im Ergeb­nis­fenster der Sprach­er­kennung gestartet. Abschnitt für Abschnitt können die Passagen manuell entlang des Timecodes angepasst werden, gleich­zeitig steht auf der rechten Seite ein Player zur Verfügung, um sich die Passagen im Zweifelsfall noch einmal anzuhören und mehrere Varianten des Textes zu erstellen. Um unter Zeitdruck eine bessere Hilfe­stellung zu geben, kann man sich unter “Word Confi­dence Coloring” Wort für Wort farblich anzeigen lassen, wie sicher sich das System bei welchen Wörtern ist. So kann man schneller erkennen, welche Wörter vielleicht noch einmal überprüft werden müssen.

Ist man mit der Bearbeitung fertig, kann man direkt aus dem Editor heraus den Export in gängige Formate starten – alles in einer Oberfläche. Die Funktion steht mit dem Updaten allen Usern in einer ersten Version zur Verfügung.

Aiconix Live

Und auch beim Deep Live Hub, ehemals aiconix Live, tut sich einiges:

Mit den Updates der letzten Wochen können wir nun eine Seamless Transcription ermög­lichen, diese erlaubt uns bei wichtigen System­up­dates die Worker auszu­tau­schen, ohne dass die Streams und damit die Transkription unter­brochen werden. Somit ist nicht nur eine nahtlose und unter­bre­chungs­freie Transkription und Übersetzung möglich, sondern das System wird in Zukunft auch deutlich flexibler in Bezug auf schnelle Änderungen oder Anpas­sungen während eines Streams werden.

Seit letzter Woche ist auch die neue Benut­zer­ober­fläche online, die nicht nur eine bessere Kontrolle über die Stapel­ver­ar­beitung und die Live-Streams ermög­licht, sondern auch Thumb­nails der laufenden und vergan­genen Streams anzeigt.

Für die kommende Woche sind weitere Neuerungen im Bereich des Viewers und unseres eigenen Proto­kolls ATT geplant: Über beide Wege werden Partials in Quasi-Echtzeit verfügbar sein. Dies bedeutet, dass bereits erkannte Wörter in der Transkription sofort ausge­liefert werden. Es besteht dadurch aber auch die Möglichkeit diese durch poten­zielle Korrek­turen direkt zu ersetzten, um für die Mitle­senden noch schneller zu sein. Vorerst wird es die Partials aber nur für Transkrip­tionen geben – dazu bald mehr Details.

Auch der Deep Live Hub wird in den kommenden Monaten durch die steigende Zahl der Nutzer und deren Feedback zu den unter­schied­lichsten Übertra­gungen und Live-Events, die produ­ziert werden, stark in seiner Entwicklung profi­tieren.

Deep Live Hub is now part of DeepVA ecosystem

Weitere Neuerungen

Indexierung der Sprecher­iden­ti­fi­kation: Seit März umfasst unsere Speaker Identi­fi­cation Indexie­rungs­fä­hig­keiten, die es Benutzern ermög­lichen, die Stimme des Sprechers zu „finger­printen“ und zu mittels einer Nummer zu indizieren. Dies wird es in Zukunft ermög­lichen, auch Sprecher:innen zu clustern und im Nachgang rückwirkend zu labeln.

Abbruch­funktion für laufende Uploads – wir haben eine neue Funktion im Dialogfeld des Speicher-Uploaders hinzu­gefügt, die es den Benutzern ermög­licht, laufende Uploads abzubrechen. Diese Verbes­serung zielt darauf ab, ein reibungs­lo­seres und anspre­chen­deres Benut­zer­er­lebnis zu bieten.

Erwei­terte Gesichts­er­ken­nungs­fä­hig­keiten: Veröf­fent­li­chung des ‚celebrities v29‘ Modells für unser Gesichtserkennungs-Mining-Modul, welches insgesamt über 100 neue Identi­täten umfasst und ebenfalls ab sofort nutzbar ist.

Wichtige Korrek­turen & Bugfixes

UI- und Benutz­bar­keits­ver­bes­se­rungen: Wir haben verschiedene kleinere UI-Bugs in der Software behoben, unter anderem im Storage, auf der Indexie­rungs­über­sicht und bei den Datensatz Clustern.

Außerdem wurde ein Problem beim erneuten Ausführen von Jobs gelöst: Ab sofort werden beim erneuten Starten das korrekte Modell und Datensatz bereits vorausge­wählt, eine kleine Verbes­serung mit hohem Mehrwert für Prozesse.

Bereits im Februar wurde ein Fehler bei den Daten­satz­ex­porten behoben, der Kolli­sionen von Klassen­na­men­ordnern zur Folge hatte. Somit ist nun ist eine bessere Daten­ver­waltung gewähr­leistet.

Alle Updates des DeepVA Changelog gibt es hier: https://docs.deepva.com/changelog/

Teilen

Email
LinkedIn
Facebook
Twitter
Suche

Inhaltsübersicht

Tage :
Stunden :
Minuten :
Sekunden

Neueste KI-Nachrichten

Abonnieren Sie unseren Newsletter

Keine Sorge, unser Newsletter ist für wichtige Neuigkeiten reserviert, so dass wir nur hin und wieder ein paar Updates versenden. Kein Spam!