Direkt zum InhaltDirekt zur SucheDirekt zur Navigation
▼ Zielgruppen ▼

Humboldt-Universität zu Berlin -

Aktuelle Verbundforschungsprojekte an der Wirtschaftswissenschaftlichen Fakultät

Diese Seite informiert über alle aktuellen, großen Verbundforschungsprojekte, an denen Mitglieder der Fakultät beteiligt sind.

Die Forschung der Fakultät wird insbesondere durch Kooperationen innerhalb großer Verbundprojekte getragen, die zum überwiegenden Teil durch die Deutsche Forschungsgemeinschaft gefördert werden. In diesen Forschungsverbünden kooperiert die Fakultät mit Partnern in Berlin, Deutschland und darüber hinaus.

Sonderforschungsbereiche und Transregios

Rationalität und Wettbewerb: Die ökonomische Leistungsfähigkeit von Individuen und Unternehmen (TRR 190)

Der SFB-Transregio verbindet die Forschungsprogramme von neoklassischen Ökonomen und Verhaltensökonomen, um angewandte Fragen von hoher wirtschaftspolitischer Relevanz zu untersuchen. Der Fokus liegt auf dem Verhalten und der ökonomischen Leistungsfähigkeit von Individuen und Unternehmen: Wie beeinflussen systematische Verzerrungen in der Erwartungsbildung, im Prozess der Entscheidungsfindung und in den Präferenzen wichtige ökonomische Entscheidungen von Individuen und Haushalten, über Ausbildung, Gesundheit, Arbeitsangebot, finanzielle Investitionen und den Kauf langlebiger Konsumgüter? Wie reagieren Unternehmen auf Verhaltensverzerrungen ihrer Kunden und ihrer Angestellten, z.B. durch die Anpassung ihrer Marketingstrategien, ihres Organisationsdesign, ihrer Anreizmechanismen und ihrer Innovationsentscheidungen? Verringert oder vergrößert Wettbewerb die Verzerrungen im Verhalten von Individuen und Unternehmen? Welche wirtschaftspolitischen Interventionen können Konsumenten und Arbeitnehmer wirksam vor Fehlentscheidungen und Ausbeutung schützen und wie können sie die Destabilisierung von Märkten (z.B. durch Blasenbildung und Marktzusammenbrüche) verhindern? Der SFB untersucht also die allokativen Konsequenzen und die wirtschaftspolitischen Implikationen von verschiedenen Aspekten von Rationalität und Abweichungen von Rationalität. Er fokussiert dabei auf Situationen, in denen die Wirtschaftssubjekte im Wettbewerb stehen.Eine wichtige empirische Frage ist, in welchen Kontexten die Abweichungen des Verhaltens vom neoklassischen Modell ökonomisch signifikante Effekte haben und in welchen anderen Kontexten das neoklassische Standardmodell ausreicht, um das beobachtete Verhalten befriedigend zu erklären. Diese Frage kann nur beantwortet werden, wenn Verhaltensökonomen und neoklassische Ökonomen eng zusammenarbeiten. Ziel des geplanten SFB ist es, diese Zusammenarbeit zu forcieren. Dazu verwenden wir die Methoden der modernen mikroökonomischen Theorie (einschließlich der Verhaltenstheorie), um testbare ökonomische Hypothesen zu generieren, gepaart mit einem breiten Spektrum von empirischen Methoden, die nicht nur Felddaten, sondern auch Umfragen, administrative Daten und ökonomische Feld- und Laborexperimente nutzen.

Förderzeitraum: seit 2017

Beteiligte der Fakultät: Georg Weizsäcker (stellvertretender Sprecher), Christoph Breunig, Dirk Engelmann, Bernd Fitzenberger, Daniel Klapper, Lukas Menkhoff, Alexandra Spitz-Oener, Roland Strausz, Nikolaus Wolf

Weitere beteiligte Einrichtungen: Ludwig-Maximilians-Universität München

Weitere Informationen: Webseite

(Internationale) Graduiertenkollegs

Die Quantitative Ökonomie beschäftigt sich mit der Modellierung von hochdimensionalen, unstrukturierten Daten und nicht stationären Zeitreihen. Die Standardinstrumentarien, welche auf niedrigdimensionalen Parametern und einer steigenden Anzahl an Beobachtungen basieren, sind somit nicht anwendbar. Es muss auf adaptive Methoden und lokal stationäre Modelle zurückgegriffen werden, um diese Daten angemessen zu analysieren. Diese IRTG untersucht, wie die Komplexität und Mehrdimensionalität durch geeignete statistische Verfahren reduziert werden können. Das Kernziel ist dabei die Entwicklung neuer statistischer und ökonometrischer Methoden, die die dynamischen Analysemöglichkeiten erweitern sollen und können zum Beispiel durch zeitlich veränderliches maschinelles Lernen mit Netzwerktechniken unterstützt werden. Um transparentes und reproduzierbares wissenschaftliches Arbeiten zu garantieren, werden die computerbasierten Algorithmen auf einer frei zugänglichen Plattform bereitgestellt.Anwendungsbereiche sind unter anderem die Neurowissenschaft, Hochfrequenzhandel, zeitabhängiges Clustern unstrukturierter Daten, Dynamic Topic Modelling, stimmungsgeleitete Reaktionen und Herdenverhalten. Für eine realistische Anwendung dieser neuen Techniken muss die Standardannahme fallen gelassen oder zumindest gelockert werden. Eine neue Schätztheorie, basierend auf Functional Structural Sparsity, bietet einen guten Ausgleich zwischen Interpretierbarkeit, Freiheit bei der Verteilungsannahme und Structural Complexity. Ein Beispiel ist ein zeitlich variables Lasso-Verfahren mit bestimmbaren und ökonomisch interpretierbaren reduzierten Parametern. Eine graphisch fundierte Perspektive auf Zeitreihendaten ist etwa angesichts der Dynamik sozialer oder systemischer Risiken notwendig. Diesbezüglich forscht die IRTG auf dem Gebiet der Combinatorial Inference zum Beispiel welche Knoten in Bezug auf Sentiments in der Finanzwirtschaft zentral und welche infektiös sind. Diese Art der Analyse ist auch im schnell wachsenden Crypto-Currency-System gefragt, wo man Marktumschwünge und dynamische Volatilität identifizieren möchte.Zu dem Qualifizierungsprogramm muss ein vielfaltiges Kursprogramm mit festen Mathematikbestandteilen, statistischem Training und modernen Techniken des Maschinellen Lernens gehören, um die gesetzten Forschungsziele zu erreichen. Die Vorträge von Gastwissenschaftlern tragen dazu bei, das Wissen um aktuelle Themen zur Dimensionsreduktion, Dynamic Sparseness und Netzwerken zu erweitern.

Förderzeitraum: seit 2013

Beteiligte der Fakultät: Wolfgang Härdle (Sprecher), Christoph Breunig, Michael Burda, Bernd Fitzenberger, Stefan Lessmann, Brenda López Cabrera, Weining Wang

Weitere beteiligte Einrichtungen: Xiamen University, China

Weitere Informationen: Webseite

Schwerpunktprogramme

Der wesentliche Zweck dieses Schwerpunktprogramms besteht in der Entwicklung eines tieferen Verständnisses für die Herausforderungen des europäischen und insbesondere des deutschen Arbeitsmarkts in einem globalen Kontext. Das Programm befasst sich dabei mit den einschlägigen Forschungsfragen des Zusammenhangs von Globalisierung, technologischem Wandel und demografischen Veränderungen und deren Effekt auf Beschäftigung und Löhne. Mithilfe einer internationalen Perspektive analysiert das Schwerpunktprogramm empirisch, wie der deutsche Arbeitsmarkt funktioniert. Dabei wird gleichzeitig ein Schwerpunkt auf Arbeitsmarktbewegungen, die Rolle von Institutionen und Politik, die Erklärung der ansteigenden Ungleichheit und demografischer Veränderungen gelegt. Außerdem wird die Rolle von Qualifikationen und wichtigen nicht ökonomischen Motiven und Auswirkungen beleuchtet.

Das Verständnis dieser Aspekte ist der Schlüssel für politische Maßnahmen im Arbeitsmarktbereich in Bezug auf Weiterbildung und Qualifikation der Bevölkerung unabhängig von Alter, Familienstand und Geschlecht. Des Weiteren können diese Erkenntnisse dazu beitragen, politische Strategien bezüglich der Demografie, Gesundheitspolitik, Sozialpolitik, Kriminalität, Immigration und der makroökonomischen Leistung des Arbeitsmarkts zu entwickeln. Die Herausforderungen, ausgelöst durch globalen Wettbewerb und Immigration in Verbindung mit dem demografischen Wandel, werden nicht nur verschiedene Gruppen von Beschäftigten betreffen, sondern auch die Methoden des Personalmanagements verändern.

Das Schwerpunktprogramm verfolgt einen interdisziplinären Ansatz, der wirtschaftswissenschaftliche und soziologische Forschung mit Methoden des Personalmanagements und der Organisation der Betriebswirtschaftslehre verbindet. Mit Rückgriff auf große Mikrodatensätze umfasst das Schwerpunktprogramm hauptsächlich empirische Forschung, deren Schwerpunkt zum einen auf einer umfangreichen deskriptiven Analyse und zum anderen auf der Einschätzung kausaler Effekte im Sinne eines Behandlungs- und Kontrollgruppen-Paradigmas beruht.

Ein spezieller Fokus liegt dabei auf Projekten, die Arbeitsmarktbewegungen aus mikro- und makroökonomischer Perspektive untersuchen. Markenzeichen dieses Schwerpunktprogramms sind der Zugang zu Arbeitsmarktdaten außergewöhnlicher Qualität auf Unternehmens- und Individualebene, Experimente nach dem neuesten Stand der Forschung und die enge Verknüpfung zur aktuellen politischen Debatte.

Förderzeitraum: seit 2014

Beteiligte der Fakultät: Michael Burda (nur 1. Förderperiode), Bernd Fitzenberger (Sprecher), Alexandra Spitz-Oener

Weitere Informationen: Webseite

Computersysteme durchdringen alle Bereiche menschlicher Aktivität. Immer schneller erheben, verarbeiten und versenden sie riesige Datenmengen untereinander. Als Konsequenz leben wir in einer Big-Data-Welt, in der das Informationsvolumen exponentiell zunimmt und die eigentlichen Probleme nicht mehr in der Akquise hinreichend vieler Daten, sondern eher in der Handhabung ihrer Fülle und ihres ungestümen Wachstums liegen. Da der Geschwindigkeitszuwachs einzelner Prozessorkerne im Wesentlichen zum Stillstand gekommen ist, setzt die Hardwareindustrie auf immer mehr Berechnungskerne pro Board oder Grafikkarte und investiert in neue Speichertechnologien. Das bedeutet, dass unsere Algorithmen massiv parallel werden und auf Datenlokalität setzen müssen. Immer öfter wird es auch gar nicht mehr möglich sein, tatsächlich alle verfügbaren Daten zu betrachten. Um diesen Herausforderungen erfolgreich zu begegnen, braucht es neue algorithmische Ideen. Das Schwerpunktprogramm soll dazu die Expertise aus verschiedenen Gebieten bündeln. Einerseits müssen aktuelle Hardwareentwicklungen und technologische Herausforderungen adäquat in bessere Berechnungsmodelle einfließen. Andererseits sollen sowohl allgemeine als auch anwendungsspezifische algorithmische Probleme, die sich aus der Größe der Daten ergeben, identifiziert und klassifiziert werden. Vor diesem Hintergrund möchten wir einen Baukasten verbesserter Algorithmen und Datenstrukturen für große Datenmengen entwickeln, bei dem es nicht nur um theoretische Resultate geht, sondern der volle Algorithm-Engineering-Zyklus durchlaufen werden soll. Konkrete algorithmische Herausforderungen beinhalten das Ausnutzen von Parallelität (Multicores, GPUs, Clouds) und Speicherhierarchien (Festplatten, Flashspeicher, Caches), der Umgang mit kontinuierlichen massiven Datenaktualisierungen, die Verarbeitung komprimierter und verschlüsselter Daten, Approximation und Online-Verarbeitung bei beschränkten Ressourcen oder die Reduktion des Energieverbrauchs durch algorithmische Maßnahmen. Was unsere Initiative von den meisten früheren Arbeiten unterscheidet, ist der Ansatz, nicht nur bestimmte isolierte Probleme anzupacken, sondern Verbundlösungen für gleich mehrere Aspekte zu suchen. Beispielsweise soll für eine konkrete Big-Data-Anwendung untersucht werden, wie durch die gemeinsame Ausnutzung von Parallelität, Speicherhierarchien, Besonderheiten der Daten und neuer algorithmischer Techniken eine bessere Gesamtperformanz erreicht werden kann. Von Anfang an wird durch Kooperationen mit Anwendungsfeldern (z.B. aus der Biologie oder Informationswissenschaft) sichergestellt, dass neben theoretischer Grundlagenforschung auch anwendungsrelevante Fragen zum Nutzen mehrerer Communities bearbeitet werden.

Förderzeitraum: seit 2014

Beteiligte der Fakultät: Max Klimm

Weitere Informationen: Webseite

Forschungsgruppen

Eine zentrale Herausforderung der Statistik an der Schnittstelle zu verschiedenen Sachwissenschaften ist die Entwicklung von Analyseverfahren für massive Datensätze, komplexe Datenstrukturen und hochdimensionale Einflussgrößen. Zielsetzung dieser deutsch-schweizerischen Forschergruppe ist die Entwicklung und Untersuchung von neuen statistischen Analysemethoden (statistische Regularisierungsverfahren) für komplexe Datenstrukturen, wie sie in verschiedenen Anwendungsbereichen auftreten. Im Vordergrund stehen dabei Methoden, bei denen durch qualitative Nebenbedingungen an die Struktur oder Geometrie Einschränkungen des Datenmodells gegeben sind.

Unsere grundlegende Hypothese ist, dass statistische Regularisierung durch qualitative Nebenbedingungen eine einheitliche Methodik für die Modellierung von Datenstrukturen darstellt, welche einerseits flexibel genug ist, wichtige Struktureigenschaften von Daten zu erkennen und sachwissenschaftlich nutzbar zu machen, aber andererseits spezifisch genug ist, um den Vorhersage- und Klassifikationsfehler zu kontrollieren.

Jedes der 14 Teilprojekte behandelt gewisse Aspekte dieser methodischen Zielsetzung. In Kooperation untereinander und mit auswärtigen Forschungspartnern werden spezifische Anwendungsprobleme untersucht, welche direkt aus der Forschergruppe kommen oder durch assoziierte Gruppen eingebracht werden. Dabei arbeiten wir an unterschiedlichen Problemen aus der Systembiologie, der medizinischen Ereigniszeitanalyse, der Astrophysik, der Materialforschung, der Atmosphärenforschung, den Forstwissenschaften, der Arbeitsmarktpolitik, der Biophotonik, der medizinischen Bildverarbeitung und der empirischen Wirtschaftsforschung.

Der grundlegende Forschungsansatz besteht darin, auf den ersten Blick diese so verschieden scheinenden Bereiche über die gemeinsam zugrunde liegende statistische Methodik, der statistischen Regularisierung, zusammenzuführen. In den letzten Jahren haben sich in diesen Disziplinen eigene statistische Methoden mit großem Tempo entwickelt und verblüffende Ähnlichkeiten werden erst neuerdings sichtbar. Auch wenn diese Gebiete augenscheinlich wenig miteinander zu tun haben: Die Forscher erwarten, dass die gemeinsame mathematische Sprache und die verwendeten statistischen Analysemethoden noch weitere verborgene Ähnlichkeiten offenlegen werden. Dementsprechend ist die Gruppe interdisziplinär besetzt: Statistiker, Mathematiker, Computerwissenschaftler und Ökonomen arbeiten eng zusammen.

Förderzeitraum: seit 2008

Beteiligte der Fakultät: Bernd Fitzenberger

Weitere Informationen: Webseite

Leibniz-WissenschaftsCampus

Die Förderung von Verbraucherrechten ist ein Grundwert der Europäischen Union. Eine ganze Bandbreite von Gesetzen, Institutionen und Regulierungen hat das Ziel, Konsumenten zu schützen und sicherzustellen, dass angemessene Informationen auf dem Markt zur Verfügung stehen und Unternehmen an unfairen und wettbewerbsschädlichen Praktiken gehindert werden.

Einige dieser wirtschaftspolitischen Maßnahmen betreffen die Konsumenten unmittelbar, etwa der Verbraucherschutz und eine abschreckende Besteuerung. Andere nützen ihnen indirekt, indem sie Marktprozesse durch Regulierung und Wettbewerbspolitik steuern. Ziel des Leibniz-WissenschaftsCampus „Berlin Centre for Consumer Policies“  (BCCP) ist es, die komplexen Interaktionen zwischen den verschiedenen Maßnahmen zu untersuchen und zu verstehen.

Vor diesem Hintergrund soll mit dem BCCP eine dauerhafte internationale Plattform für Wettbewerb und Verbraucherpolitik geschaffen werden. Der starke politische Bezug macht Berlin zum perfekten Standort für einen WissenschaftsCampus zur Verbraucherpolitik. Exzellente interdisziplinäre Forschung — am Campus beteiligt sind Ökonomen, Juristen, Politik- und Lebenswissenschaftler — verfolgt den Anspruch, die Politik aktiv und effektiv zu hoch relevanten aktuellen Themen zu beraten.

Förderzeitraum: seit 2015

Beteiligte der Fakultät: Dirk Engelmann, Wolfgang Härdle, Ulrich Kamecke, Daniel Klapper, Roland Strausz, Georg Weizsäcker

Weitere beteiligte Einrichtungen: Freie Universität Berlin, Technische Universität Berlin, European School of Management and Technology, Hertie School of Governance, Deutsches Institut für Wirtschaftsforschung (DIW), Wissenschaftszentrum Berlin für Sozialforschung

Weitere Informationen: Webseite