Gagnez en performance grâce à l’IA, l’automatisation et la BI – avec un expert indépendant à vos côtés

Je conçois avec mes collaborateurs des solutions intelligentes sur mesure pour aider dirigeants et équipes à mieux décider, automatiser et anticiper.

Mes expertises

Python Python Power BI Power BI Sql Sql Data Science Data Science Intelligence Artificielle Intelligence Artificielle Automatisation Automatisation Data Engineering Data Engineering Machine Learning Machine Learning API API ETL ETL Reporting Reporting Modélisation Modélisation Pipelines Pipelines
Python Python Power BI Power BI Sql Sql Data Science Data Science Intelligence Artificielle Intelligence Artificielle Automatisation Automatisation Data Engineering Data Engineering Machine Learning Machine Learning API API ETL ETL Reporting Reporting Modélisation Modélisation Pipelines Pipelines

Transformez vos données en leviers d’action grâce à l’IA et à l’automatisation

Gagnez en efficacité, prenez de meilleures décisions et anticipez vos résultats grâce à des solutions concrètes.

Optimisez avec l’automatisation

Gagnez du temps en automatisant vos tâches répétitives grâce à des workflows simples et efficaces adaptés à votre activité.

KPI en temps réel pour piloter

Visualisez vos indicateurs clés via des dashboards clairs et interactifs, pour des prises de décision plus rapides et éclairées..

 Anticipez grâce à la data science

 Déployez des algorithmes prédictifs pour détecter les opportunités, prévenir les risques et gagner en agilité.

Naviguez dans vos flux data

Déployez une architecture data robuste avec pipelines, stockage optimisé et processus de nettoyage automatisés.

OKAN : 4 lettres, 4 piliers de votre transformation data.

Qui suis-je ?

Je m’appelle Okan Kocabiyik, ingénieur data indépendant spécialisé en intelligence artificielle, automatisation et business intelligence.

Avec plusieurs années d’expérience en data science, data engineering et développement de solutions sur mesure, j’accompagne les PME, ETI et grands groupes dans l’exploitation stratégique de leurs données pour mieux décider, automatiser et performer.

Je suis en mesure de concevoir des modèles de scoring, de détecter des comportements à risque, de structurer des pipelines analytiques complexes, ou encore de créer des tableaux de bord Power BI adaptés aux enjeux stratégiques.
Mon approche est à la fois technique et orientée métier, avec un souci constant de performance, d’automatisation et de clarté des restitutions.

Je peux intervenir dans de nombreux contextes : prévention des risques, conformité réglementaire, marketing data-driven, analyse financière, connaissance client ou encore pilotage opérationnel.
Je travaille avec des outils modernes (Python, SQL, Vertica, R, Power BI…), sur des volumes de données massifs (plusieurs milliards de lignes), et dans des environnements exigeants en termes de gouvernance, sécurité et industrialisation.

Selon les projets, j’interviens seul ou en collaboration avec des experts freelances pour déployer des solutions agiles, scalables et opérationnelles.

Mon écosystème technique et analytique

Data Science & Machine Learning

Modélisation prédictive, scoring client, détection d’anomalies, analyse comportementale.

Big Data & traitement massif

Requêtes SQL optimisées, analyse sur 10+ milliards de lignes, Vertica & VerticaPy.

Data Analysis & BI

KPIs, tableaux de bord dynamiques (Power BI), reportings automatisés.

Développement Python / R / SQL

Automatisation, pipelines data, scripting analytique.

Mise en production

Packaging, automatisation, intégration métier.

Qualité & gouvernance

Standardisation, contrôle qualité, documentation.

Recueil des besoins métier

Cadrage, restitution, accompagnement à la décision.

Esprit analytique & impact

Transformation de données en actions concrètes.

Travail en équipe

Collaboration avec Data Architects, DevOps, Risk Officers, DSI.

Power BI

Tableaux de bord dynamiques (Desktop & Service), KPIs, reporting interactif.

Office 365

Excel, Word, Outlook, PowerPoint, OneNote, OneDrive.

SAS

Requêtage, analyse statistique, traitements de données.

Jupyter / JupyterLab

Développement Python et R en notebooks interactifs.

VS Code

Environnement de développement Python / SQL.

Git / GitHub / GitLab

Versionning, collaboration, CI/CD.

VTOM

Supervision et ordonnancement des traitements batch.

Conda / Mamba

Gestion d’environnements Python/R.

Teams

Collaboration et gestion de projets au quotidien.

Python

Automatisation, machine learning, traitement de données, scripting.

R

Analyses statistiques, actuariat, modélisation prédictive.

SQL

Requêtage, transformation, manipulation de bases massives.

DAX

Création de KPIs et mesures dynamiques dans Power BI.

Power Query

Transformation de données dans Power BI.

VBA

Automatisation de rapports Excel, scripts personnalisés.

Shell (Bash/Zsh)

Scripting sous Unix/Linux, automatisation serveur.

C++

Notions de base – utilisé dans des projets spécifiques ou académiques.

Domaines d’intervention en data & IA

Étape 1 — Audit des tâches

Analyse des process manuels et répétitifs.

Audit des tâches

Étape 2 — Choix des outils

Sélection d'outils (Python, SQL, Power Automate, Linux).

Choix des outils

Étape 3 — Développement

Conception de scripts et automatisations concrètes.

Développement

Étape 4 — Mise en ligne

Recette, sécurité, publication.

Mise en ligne

Étape 5 — Maintenance

Monitoring + mises à jour selon les évolutions métiers.

Maintenance

Étape 1 — Identification des KPI

Objectifs métier et indicateurs clés.

Identification des KPI

Étape 2 — Connexion des données

Bases SQL, fichiers, APIs.

Connexion des données

Étape 3 — Modélisation

Structure Power BI ou outils similaires.

Modélisation

Étape 4 — Création des dashboards

Filtres dynamiques, visuels personnalisés.

Création des dashboards

Étape 5 — Partage et sécurité

Rôles, accès, rafraîchissements automatiques.

Partage et sécurité

Étape 1 — Définition du besoin

Scoring, churn, fraude...

Définition du besoin

Étape 2 — Constitution du dataset

Nettoyage, features, temporalités.

Constitution du dataset

Étape 3 — Modélisation

Logistic, XGBoost, arbres, etc.

Modélisation

Étape 4 — Validation

Scores.

Validation

Étape 5 — Déploiement

API ou batch, réintégration outil métier.

Déploiement

Étape 1 — Cartographie des flux

ERP, CRM, fichiers, outils SaaS.

Cartographie des flux

Étape 2 — Architecture cible

Stockage cloud, entrepôts, pipelines.

Architecture cible

Étape 3 — Intégration continue

Automatisation ingestion et validation.

Intégration continue

Étape 4 — Supervision & logs

Alerting, rétention et dashboard technique.

Supervision & logs

Étape 5 — Documentation

Dictionnaire de données, accès et conformité.

Documentation

Contactez-moi ! 

Email

contact@okandata.com

Basé à 20 min de Rennes et 40 min de Nantes,

j’interviens partout en France :

  • 🔹 Présentiel à Rennes / Nantes (2j télétravail)
  • 🔹 Paris (min. 3j télétravail)
  • 🔹 Full remote

Merci de remplir ce formulaire afin que nous puissions répondre au mieux à vos besoins.
Nous reviendrons vers vous dans les plus brefs délais.
📩 Vous pouvez également m’envoyer un mail directement à l’adresse indiquée ci-dessous si vous préférez un contact immédiat.