zurück

Berechenbar

Mit Data Analytics lassen sich auch in der Immobilienwirtschaft Risiken besser bewerten und der Unternehmenswert erhöhen. Ein Beitrag von Benjamin Aunkofer, Chief Data Scientist bei Datanomiq.

data-analytics
Daten aus verschiedenen Quellen müssen auch bei Immobilienunternehmen den Weg zusammen finden. (Bild: Metamorworks/Istockphoto)

Für die Immobilienwirtschaft ist es an der Zeit, in die effektive Nutzung von Daten zu investieren, um die eigenen Prozesse, Immobilienprodukte und Kunden besser zu verstehen. Denn Daten sind direkt in messbare Wertbeiträge übersetzbar.

Lage, Lage, Datenqualität

Jedes Immobiliengeschäft beginnt mit einem umfassenden Datenaustausch, beginnend beim Kauf über die Verwaltung bis hin zur Vermietung von Objekten. Daten spielen eine entscheidende Rolle, und das Datenmanagement bestimmt darüber, wie zügig und reibungslos diese Geschäfte ablaufen.
Real-Estate-Unternehmen – der angelsächsische Name spricht hier für sich selbst – arbeiten mit realen Werten, was ein ganz klarer Vorteil gegenüber vielen anderen Branchen ist. Denn der Unternehmenswert bestimmt sich traditionell überwiegend nach diesen echten und tangiblen Werten. Weil Immobilien naturgemäß ortsgebunden sind, gilt hinsichtlich ihrer Bewertung der Leitsatz der drei Kriterien „Lage, Lage, Lage“.
Für Immobilien mag das so gelten, für Unternehmen jedoch erfolgt die Bewertung zunehmend auch über die Daten und deren Qualität. Daten stehen nicht für sich allein, sondern sollen ein mit der Realität synchrones Abbild der Geschäftssituation herstellen. Je größer die Datentransparenz und je höher die Qualität dieser Daten, desto wertvoller ist das Unternehmen im Vergleich zum Wettbewerb.
Ihre besondere Wirkung entfalten Daten erst in Kombination mit den richtigen Analysemethoden und mit der Verknüpfung mehrerer Datenquellen. Die Zusammenführung von Daten in eine konsolidierte und bereinigte Form aus heterogenen Datenquellen wird als Data Warehousing bezeichnet und umfasst eine Gruppe von Methoden der Extraktion, Zuführung und Transformation von Daten. Neben dem allgemeinen Reporting über in der Immobilienwelt wichtige KPIs, wie beispielsweise die Miet- und Zahlquote, Preisminderungen, realisierte Quadratmeterpreise sowie der objektgruppenspezifische ROI, spielen auch unternehmensindividuelle Analysen eine große Rolle. Ein Data Warehouse kann es beispielsweise ermöglichen, Makler-Angebote und Objekte eindeutig zu matchen, somit Doppel-Angebote zu erkennen und auch Preis-Tendenzen und deren Abhängigkeiten von Raum und Zeit zu verstehen.

Viele Unterschiede, aber eine gemeinsame Grundlage

Auch in Zeiten der Digitalisierung sind Immobiliengeschäfte und weiterführende Dienstleistungen mit vielen bürokratischen Prozessen verbunden, etwa bei der Genehmigung beziehungsweise Prüfung von Bauvorhaben, Zuschüssen oder Umweltvorschriften. Andere Prozesse hingegen fordern viel Interaktion mit Kunden und Dienstleistungspartnern, beispielsweise die Auswahl von Mietern, die Gewährleistungsabwicklung oder auch Abrechnungsprozesse. Was diese Prozesse gemeinsam haben, sind das operative Level und dass diese Prozesse in IT-Systemen weitgehend vollständig erfasst werden, beispielsweise in einem SAP ERP oder in einem Salesforce CRM.
Aus Daten können Prozesse rekonstruiert werden. Nahezu alle operativen IT-Systeme speichern Stamm- und Bewegungsdaten und erfassen in den Backend-Datenbanken nicht nur die Daten von Kunden, Partnern, Objekten und Transaktionen, sondern auch Stornierungen und Änderungen an diesen Datensätzen.
Datengetriebene Prozessanalysen schaffen über die Datentransparenz hinaus auch eine Prozesstransparenz. Die Datentransparenz entsteht dabei über die Identifikation von geschäfts- und insbesondere von prozessrelevanten Daten in den Backend-Datenbanken der operativen IT-Systeme. Die Prozesstransparenz entwickelt sich durch die Fusion und Transformation dieser Daten in ein Event Log, das ein Protokoll aller auftretenden Geschäftsereignisse ist. Dazu zählen etwa die Vergabe eines Mietvertrages oder die Änderung einer Nebenkosten-Abrechnung inklusive der Angabe über den Zeitpunkt des Auftretens und weiterer Schlüssel zur Verkettung dieser Ereignisse untereinander. Das Event Log kann dann dazu verwendet werden, über spezielle Analyse-Software die Prozesse zu visualisieren, zu filtern und anwendungsspezifisch auszuwerten, beispielsweise mit Blick auf Compliance oder Prozessbeschleunigung.
Die datengetriebene Prozessanalyse – auch als Process Mining bezeichnet – ist eine effektive Methodik zur Verschlankung und Absicherung von Prozessen, und so können auch Prozesskosten reduziert werden. Jedoch kann sich diese Form der Prozessanalyse auch ohne konkrete Zielsetzung lohnen, wenn die Komplexität dieser Prozesse hoch und als noch nicht umfassend verstanden gilt. Denn die gewonnene Prozesstransparenz ermöglicht ein besseres Verständnis der tatsächlichen Unternehmensprozesse, das beispielsweise auch zur Verbesserung der Soll-Prozessdefinition beitragen kann.

Vorhersagen über Mieter

Jedes Immobiliengeschäft stellt ein finanzielles Risiko dar, nicht nur beim Kauf, sondern auch bei der Vermietung. Neben der Vorhersage der Kreditwürdigkeit und der Erkennung von Mietbetrug oder Zahlungsausfällen können auch andere Eigenschaften von Mietern vorhergesagt werden, so beispielsweise Schnell-Fluktuierer. Insbesondere bei hohen Aufwänden bei der Mieterfindung und bei Maklergebühren (Stichwort Bestellerprinzip) sind Schnell-Fluktuierer wirtschaftlich schädlich.
Mit überwachten maschinellen Lernverfahren lassen sich Modelle erstellen, die Zahlungsausfälle und Mietverkürzungen zuverlässig vorhersagen. Somit können sie als Assistenzsystem für die Mieterauswahl eingesetzt werden.
Überwachte Verfahren des maschinellen Lernens funktionieren über die Auswahl eines Lern-Algorithmus oder einer Zusammenstellung von Algorithmen als Kollektiv (Ensemble) und der Einspeisung einer Datenhistorie in diesen Algorithmus, die alle Situationswerte und die Resultate beinhaltet.
Der Lern-Algorithmus erstellt dann ein Modell, das die Zusammenhänge zwischen Input (Situationsdaten) und Output (Resultate) beschreibt. Im Falle des Mieter-Scorings wären beispielsweise die persönlichen, beruflichen und finanziellen Daten über die bisherigen Mieter der Input, der Status des Mieters bezüglich seiner bisherigen Mietdauer und der Zahlungs-Zuverlässigkeit der Output. Über einen weiteren Teil der Datenhistorie wird dieses Modell getestet und die Treffsicherheit der Vorhersage bestimmt.
Erst wenn sich über viele Wiederholungen die Vorhersagegüte bewiesen hat, wird das Modell als produktives Prädiktionssystem auf neue Daten angewendet.
Für die Vorhersage von Mietausfällen haben sich dabei Ensemble-Learning-Verfahren als sehr akkurat in ihrer Vorhersagegüte erwiesen.Ensemble Learning ist eine Zusammenstellung von heterogenen oder homogenen Verfahren des maschinellen Lernens. Ensembles aus heterogenen Verfahren sollen dabei die unterschiedlichen Stärken und Schwächen der einzelnen Analyse-Verfahren ausgleichen, während homogene Kollektive vor allem dafür sorgen sollen, dass sich das Gesamtmodell nicht an einzelne Ausreißer überanpasst und besser generalisiert. Eines dieser Verfahren sind die beliebten Random Forests, bei denen mehrere Entscheidungsbäume über einen Greedy-Algorithmus auf die Erkennung solcher Mietereigenschaften trainiert werden.
Aber auch für andere Anwendungsfelder spielen Prädiktionsalgorithmen eine Rolle:

  • Optimierung der Entscheidungsfindung im Asset- und Portfolio-Management
  • Gewinnung einer erhöhten Transparenz auf Immobilienmärkten
  • Entwicklung individueller Kundenservices, insbesondere im Kontext von „Smart Home“
  • Prädiktive Wartung von Klimaanlagen und Fahrstühlen

Einstieg Bottom-Up versus Top-Down

Der Einstieg in die effektive Nutzung von Daten aus unternehmensinternen und -externen Quellen bedarf einer individuellen Abwägung. Für einige Unternehmen der Immobilienbranche herrschen ganz besondere Herausforderungen für die Wettbewerbsfähigkeit, und so kann es sinnvoll sein, gezielt die richtigen Antworten auf diesbezügliche Fragestellungen unter Einsatz von zielgerichteten Methoden aus der Data Science zu finden. Das automatisierte und verbesserte Scoring von Mietern oder Käufern sowie die Vorhersage von Ausfällen von Fahrstühlen sind einige solcher Beispiele, die auf ganz bestimmte Zwecke ausgerichtet sind und somit Bottom-Up den Anfang setzen.
Für andere Unternehmen steht hingegen zu Anfang die Daten- und KPI-Transparenz im Vordergrund, sodass Top-Down vorgegangen wird. Spezielle Algorithmen zur Voll- oder Assistenz-Automatisierung werden in der Prioritätenliste hinten angestellt, die Schaffung eines Data Warehouses als konsolidierte Datenbasis dafür zur ersten Priorität erklärt, um ein umfassendes und zuverlässiges Informationssystem herzustellen, das als Single Point of Truth (SPOT) alle Abteilungen und weiterführende Systeme mit Informationen versorgt. Aufbauend auf diesem System der systematischen Datenbereitstellung und -aufbereitung können dann Business-Intelligence-Analysen sowie standardisiertes Reporting im Unternehmen etabliert werden.

Dieser Artikel stammt aus der immobilienmanager Ausgabe 4-2020 (Autor: Benjamin Aunkofer ist Chief Data Scientist bei Datanomiq und ist über dieses Unternehmen auch als Interim Head für Business Intelligence und Analytics tätig. )

Sie haben Interesse an unserem Printmagazin? Alle Abos im Überblick finden Sie hier.

03.07.2020