Кейс

Розробка та побудова корпоративного Data HUB

Big Data

Замовник

Міжнародний банк

Галузь

Фінансовий сектор

Масштаб

1000+ співробітників

Задача

Створення багатофункціонального центру агрегації, обробки та надання даних із забезпеченням безпеки обміну корпоративними даними в реальному часі.

Рiшення

Структура функціональних компонентів:
Data Broker (Kafka) – забезпечує обмін даними в реальному часі.
Big Data Platform (Hortonworks / Cloudera Hadoop Data Platform, Hadoop Data Float) – зберігає всі дані, що надходять через брокер.
Logical Datawarehouse (Tibco Data Virtualization) – логічне сховище даних, інструмент для бізнес-користувачів для доступу і роботи з даними, також забезпечує швидкий доступ до даних для оперативного моніторингу наскрізного технічного процесу (від збору даних до споживання даних), надає дані для технічного моніторингу.
Data Governance – управління даними, включає якість і безпеку даних.

Результат

Побудована масштабируемая архітектура на Apache Kafka для обміну даними в реальному часі, 24/7. Кількість оброблюваних подій у день – близько 2-3 млн., в секунду – до 200. Оптимізація управління даними, включаючи їх якість та безпеку.

Form Background

Бажаєте ознайомитись з
повною версією кейсу?

Заповніть форму і ми одразу
зв'яжемося з Вами.