Enable job alerts via email!
Et ledende proptech-selskap i Oslo søker en Senior Data Engineer for å håndtere produksjonspipelines for geospatial- og eiendomsdata. Stillingen innebærer ansvar for kvalitet, overvåking og utvikling av løsninger, samt støtte til data-teamet. Kandidaten bør ha erfaring med ETL-løsninger, spesielt med SQL og FME, i et dynamisk og teknologisk miljø med fokus på kvalitet og skalerbarhet.
Ansvar for FKB-pipelinen (geonorge/Kartverket): oppdateringsintervall, kvalitet, overvåking, feilhåndtering og publisering.
FME-erfaring (drift/utvikling) er en stor fordel. Alternativt tilsvarende ETL/geo-verktøy og villighet til å bruke FME hos oss.
Operativ håndtering av Matrikkelen, Grunnboken og FKB (nedlasting, oppdateringsrytmer, kvalitet).
geonorge.no/Kartverket: finne, forstå og bruke datakilder (produktark, metadata, API/filleveranser) – holde FKB/DOK/høydedata/stedsnavn m.m. oppdatert.
Grunnleggende DevOps-praksis (versjonering, CI/CD).
Bidratt til å gjøre data tilgjengelig som et "produkt" – ikke bare et internt verktøy.
Placepoint er et av Norges ledende og raskest voksende proptech-selskap. Som en ambisiøs scale-up utvikler vi kritisk teknologi for flere sektorer av eiendomsbransjen – og vi har i dag over 600 profesjonelle kunder på plattformen. Vi kombinerer tung domenekunnskap med moderne data- og analyseteknologi – og målet er å gjøre komplekse eiendomsdata tilgjengelig, transparent og handlingsrettet. I dag brukes våre løsninger av alt fra kommuner og entreprenører, til de største bankene og eiendomsaktørene i Norge.
Hos Placepoint vil du jobbe i et ungt og teknisk sterkt miljø. Vi bygger på moderne stacker, automatiserer der vi kan, og setter kvalitet, skalerbarhet og dataflyt i sentrum.
Som Senior Data Engineer vil du ha hovedansvaret for vår nye produksjonspipeline for geospatial- og eiendomsdata – fra innhenting til foredling og publisering – med leveranser både til kunder og til intern kildebruk. Rollen kombinerer drift for stabilitet og kvalitet med et tydelig ansvar for å bygge ut og videreutvikle løsningen. Du vil også støtte resten av data-teamet i relaterte oppgaver og jobbe med flere datakilder.
Ansvar for FKB-pipelinen (geonorge/Kartverket): oppdateringsintervall, kvalitet, overvåking, feilhåndtering og publisering.
Bygge ut og videreutvikle arkitektur og løp (optimalisering, automatisering, modularisering) – og vurdere ny løsning når det gir tydelig verdi.
Støtte data-teamet: integrasjoner, ETL/orkestrering, datamodellering, kvalitet, overvåking/innsikt og leveranse av mange kartlag.
Jobbe med flere kilder: Matrikkelen, Grunnboken, DOK, Enhetsregisteret, Aksjonærregisteret m.fl., samt egne datasett og scraping ved behov.
Være med og forme nye produkter basert på svært detaljerte kartdata i Norge.
Pluss om du kan GIS – eller er nysgjerrig på å lære – for å være med og bygge nye og unike datagrunnlag på tvers av våre data.
Driftsmiljøet er i dag primært AWS for denne riggen; vi bruker også Azure andre steder, blant annet Azure SQL Server og Data Factory.
3+ års erfaring med drift/utvikling av data-/ETL-løsninger i produksjon.
Svært sterk på SQL – primært PostgreSQL (med PostGIS); gjerne også erfaring med Azure SQL Server.
FME-erfaring (drift/utvikling) er en stor fordel. Alternativt tilsvarende ETL/geo-verktøy og villighet til å bruke FME hos oss.
Kjennskap til offentlige geodata/kilder: Matrikkelen, Grunnboken, FKB.
Erfaring fra sky: AWS (riggen som skal driftes først) – og gjerne også Azure.
Komfortabel med programmering/scripting i minst ett språk (f.eks. Python, C#, Go, JavaScript).
Praktisk profil med fokus på feilretting, automatisering og stabile leveranser.
Drift og videreutvikling av dataløp for kartdata i FME (Workspaces/Server) – planlegging, logging og feilhåndtering – eller tilsvarende som kan overføres.
PostgreSQL i praksis – ytelsestuning, indekser og god tabelldesign/robust databasestruktur. PostGIS-erfaring og gjerne Azure SQL Server teller positivt.
Operativ håndtering av Matrikkelen, Grunnboken og FKB (nedlasting, oppdateringsrytmer, kvalitet).
geonorge.no/Kartverket: finne, forstå og bruke datakilder (produktark, metadata, API/filleveranser) – holde FKB/DOK/høydedata/stedsnavn m.m. oppdatert.
Integrasjoner mot offentlige registre/API-er (Enhetsregisteret, Aksjonærregisteret, DOK) og arbeid med formater som CSV/JSON/GeoJSON/Parquet (inkl. scraping ved behov).
Objektlagring og datalake: arbeid med S3/Azure Blob/ADLS (mappestruktur, partisjonering, livssyklus/tilgang) og effektive formatvalg som Parquet/GeoParquet.
Orkestrering og produksjonsdrift: AWS-miljøet vårt, og gjerne Azure Data Factory eller tilsvarende – inkludert overvåking og varsling.
Publisering og leveranse av mange kartlag til kunder (tjenester/lenker/rapporter).
Grunnleggende DevOps-praksis (versjonering, CI/CD).
Erfaring med MLOps eller maskinlærings-workflows.
Bygget eller skalert en dataplattform i SaaS/scale-up-miljø.
Bidratt til å gjøre data tilgjengelig som et "produkt" – ikke bare et internt verktøy.
API - integrasjoner
Åpenhet, tilgjengelighet og etterrettelighet kjennetegner oss – og er verdier vi bygger både produkt og kultur på.