Zur Seitennavigation oder mit Tastenkombination für den accesskey-Taste und Taste 1 
Zum Seiteninhalt oder mit Tastenkombination für den accesskey und Taste 2 

Foto: Matthias Friel

Pretrained Models - Einzelansicht

  • Funktionen:
  • Zur Zeit keine Belegung möglich
Veranstaltungsart Seminar Veranstaltungsnummer 1111
SWS 2 Semester SoSe 2024
Einrichtung Department Linguistik   Sprache englisch
Belegungsfrist 02.04.2024 - 10.05.2024   
Gruppe 1:
     Zur Zeit keine Belegung möglich
    Tag Zeit Rhythmus Dauer Raum Lehrperson fällt aus am Max. Teilnehmer/-innen
Einzeltermine anzeigen
Seminar Di 14:00 bis 16:00 wöchentlich 09.04.2024 bis 16.07.2024  2.14.0.32 Li  
Kommentar

(Note: This course starts from April 16!)

Course webpage:https://limengnlp.github.io/teaching/pretrain_24s/. 

Large-scale pretrained models (Bert, T5 and GPT) have dramatically changed the landscape of artificial intelligence (natural language processing, computer vision and robotics). With huge parameters, these models encode rich knowledge and prove effective backbones for downstream tasks over training models from scratch.

This seminar is the first part of “pretrained models” course and focuses on transformer-based pretrained models with encoder-only architecture. It is a transition course, and is designed to equip students with essential knowledge to engage with cutting-edge NLP research. 


Strukturbaum
Die Veranstaltung wurde 2 mal im Vorlesungsverzeichnis SoSe 2024 gefunden:
Vorlesungsverzeichnis
Humanwissenschaftliche Fakultät
Department Linguistik
Master of Science
Cognitive Systems: Language, Learning and Reasoning (Prüfungsversion ab WiSe 2014/15)
Elective Modules
AM11 - Current Topics in Computational Linguistics 1  - - - 1 offens Buch
AM12 - Current Topics in Computational Linguistics 2  - - - 2 offens Buch