Ziel ist auch hier die Erarbeitung neuer technologiegerechter Implementierungskonzepte für hohe Energie- und Flächeneffizienz. Anwendungsbeispiele finden sich beispielsweise in den Bereichen Kanaldekoder, Software-Define-Radio oder maschinelles Lernen.

Kanaldekoder

Kanaldekoder, welche die Erkennung und Korrektur von Übertragungsfehlern erlauben, sind in vielen Anwendungen der hochratigen digitalen (sowohl Wireless- als auch Wireline-basierten) Übertragungstechnik aber auch in der Speichertechnik eine zentrale, anspruchsvolle Komponente. Die Herausforderungen liegen dabei sowohl in der erforderlichen arithmetischen Rechenleistung wie auch im Flächen- und insbesondere Energiebedarf. Dies gilt insbesondere für die Turbo- und Low-Density-Parity-Check- (LDPC-) Kodierung, die Übertragungsraten nahe der fundamentalen so genannten ”Shannon-Grenze“ gestatten.

System-on-Chip-Komponenten für Software-Defined-Radio

Im Bereich der drahtlosen Kommunikation und Datenübertragung werden Endgeräte entwickelt, die mehrere Standards (z. B. GSM, UMTS, LTE, WLAN, Bluetooth, GPS) gleichzeitig unterstützen. Eine Kombination der derzeit eingesetzten Komponenten in einer Multistandard-Plattform ist aufgrund der benötigten großen Anzahl teuer und bietet keine hinreichende Flexibilität für eine Anpassung an neue zukünftige Standards. Das so genannte ”Software Defined Radio“-Konzept bietet diese Flexibilität, stellt jedoch enorme Anforderungen an die verfügbare Rechenleistung und die Kommunikation zwischen den dazu benötigten hochparallelen Recheneinheiten in Form von ”Single Instruction Multiple Data-“ (SIMD-) Architekturen. Hier bieten flexible Beschleuniger entscheidende Vorteile. Entsprechende Mikroarchitekturen und Implementierungskonzepte werden für verlustleistungsarme, flächeneffiziente Arithmetikkomponenten entwickelt. Dies schließt auch ”Fast-Fourier-Transformation-“ (FFT-) Makros und statische Speicherblöcke (SRAMs) kleiner und mittlerer Kapazität für solche SDR-Prozessoren ein.

Maschinelles Lernen

Im Bereich des maschinellen Lernens haben die künstlichen neuronalen Netze in den letzten Jahren wesentliche Beiträge geleistet. Der beeindruckende Fortschritt war dabei eng an die Entwicklung von immer leistungsfähigeren CPU und GPU Clustern gekoppelt. Aus der Sicht der Algorithmenentwicklung lag der Fokus dabei zunächst auf der Verbesserung der Qualität. Für bestimmte und klar umrissene Anwendungsfälle werden heutzutage menschliche Fähigkeiten erreicht oder sogar überschritten. Weiterer Fortschritt erfordert nun eine bessere Effizienz bei der Berechnung, um dynamisches Lernen in Echtzeit zu ermöglichen. Hierzu ist einerseits eine Erhöhung der Energieeffizienz und andrerseits eine effizientere Konvergenz beim Lernen notwendig. Neben dem Entwurf von flexiblen Beschleunigern pflegt der Lehrstuhl hier auch eine enge Kooperation mit den Experten in der Entwicklung der Algorithmen, um alle Aspekte im Entwurfsraum quantitativ beleuchten zu können.