Datenquellen sind ein großes Thema und verdienen eine weitere Session – diesmal mit mehr Erfahrungen von meiner Seite zu Excel, SQL und Dataflows.
Besonders hat mich der Kommentar von Jochen Jülke auf LinkedIn gefreut, der noch mal viele Insights geteilt hat.
wow, echt tolle episode Artur König und Marcus Wegener!, Gerne mehr von solchem Level300+ Material! 🙂 Die PBI Dataflow> Azure Datalake (ADLS) Anbindung ist echt super praktisch um Dataprep/ETL Tasks in die Fachabteilung zu delegieren und trotzdem die Daten direkt in die IT/Azure Welt zur Weiterverarbeitung zu bringen ;). Der Fakt,, das im ADLS niemals die PBI Dataflow Snapshots gelöscht werden ist mir auch als erstes aufgefallen, Da ist dann individuelles “housekeeping” im ADLS angesagt, z.B. über entsprechende “Livecylce Management”-Rules welche die Daten nach Blob.LastModify-Alter automatisch in Cold/Archive-Layer verschieben um Kosten zu sparen oder nach einer gewissen Zeit dann per DEL-Action komplett löschen. Vielleicht auch noch wichtig zu wissen: der ADLS MUSS zwingend in der gleichen Region wie der PBI-Tenant sein und ADLS+PBI Tenant MÜSSEN auch immer im gleichen Active Directory (AAD) sein…das war bei uns damals in einem größeren Projekt echt Aufwand und wir mussten die Resourcen erstmal reorganisieren um das PBI Feature nutzen zu können.
LinkedIn
Wer den Talk verpasst hat und sich dennoch für das Thema interessiert, findet hier die Aufzeichnung.
Die nächste Session des “BI Thinkers Talk” kommt am 21.07. um 15 Uhr Live auf YouTube. In dieser Session, geht es um Datenaufbereitung.
Weitere Aufzeichnungen zum BI Thinkers Talk findest du hier:
Du willst mehr coole Power BI Inhalte?
Dann folge uns auf LinkedIn und füttere deinen Newsfeed mit unseren Inhalten:
Artur König | https://www.linkedin.com/in/datakoenigartur/
Marcus Wegener | https://www.linkedin.com/in/marcuswegener/