SAP BODS-퀵 가이드

데이터웨어 하우스는 하나 이상의 이기종 데이터 소스에서 데이터를 저장하는 중앙 저장소로 알려져 있습니다. 데이터웨어 하우스는 정보보고 및 분석에 사용되며 과거 데이터와 현재 데이터를 모두 저장합니다. DW 시스템의 데이터는 분석보고에 사용되며 나중에 비즈니스 분석가, 영업 관리자 또는 지식 근로자가 의사 결정을 위해 사용합니다.

DW 시스템의 데이터는 영업, 마케팅, HR, SCM 등과 같은 운영 트랜잭션 시스템에서로드됩니다. 정보 처리를 위해 DW 시스템에로드되기 전에 운영 데이터 저장소 또는 기타 변환을 통과 할 수 있습니다.

데이터웨어 하우스-주요 기능

DW 시스템의 주요 기능은 다음과 같습니다.

  • 하나 이상의 이기종 데이터 소스에서 데이터가 저장되는 중앙 데이터 저장소입니다.

  • DW 시스템은 현재 데이터와 과거 데이터를 모두 저장합니다. 일반적으로 DW 시스템은 5-10 년의 기록 데이터를 저장합니다.

  • DW 시스템은 항상 운영 트랜잭션 시스템과 별도로 유지됩니다.

  • DW 시스템의 데이터는 분기 별에서 연간 비교까지 다양한 유형의 분석보고 범위에 사용됩니다.

DW 시스템의 필요성

데이터가 마케팅, 영업, ERP, HRM, MM 등과 같은 여러 애플리케이션에서 나오는 주택 융자 기관이 있다고 가정합니다.이 데이터는 데이터웨어 하우스에서 추출, 변환 및로드됩니다.

예를 들어, 제품의 분기 별 / 연간 판매량을 비교해야하는 경우 트랜잭션 시스템이 중단되므로 운영 트랜잭션 데이터베이스를 사용할 수 없습니다. 따라서 이러한 목적으로 데이터웨어 하우스가 사용됩니다.

DW와 ODB의 차이점

데이터웨어 하우스와 운영 데이터베이스 (트랜잭션 데이터베이스)의 차이점은 다음과 같습니다.

  • 트랜잭션 시스템은 사용자 레코드 업데이트, 레코드 검색 등과 같은 알려진 워크로드 및 트랜잭션을 위해 설계되었습니다. 그러나 데이터웨어 하우스 트랜잭션은 더 복잡하고 일반적인 데이터 형식을 나타냅니다.

  • 트랜잭션 시스템에는 조직의 현재 데이터가 포함되고 데이터웨어 하우스에는 일반적으로 기록 데이터가 포함됩니다.

  • 트랜잭션 시스템은 여러 트랜잭션의 병렬 처리를 지원합니다. 데이터베이스의 일관성을 유지하려면 동시성 제어 및 복구 메커니즘이 필요합니다.

  • 운영 데이터베이스 쿼리를 사용하면 작업 (삭제 및 업데이트)을 읽고 수정할 수 있지만 OLAP 쿼리에는 저장된 데이터에 대한 읽기 전용 액세스 만 필요합니다 (Select 문).

DW 아키텍처

데이터웨어 하우징에는 데이터 정리, 데이터 통합 ​​및 데이터 통합이 포함됩니다.

데이터웨어 하우스에는 3 계층 아키텍처가 있습니다. Data Source Layer, Integration Layer,Presentation Layer. 위에 제공된 그림은 데이터웨어 하우스 시스템의 공통 아키텍처를 보여줍니다.

데이터웨어 하우징 시스템에는 4 가지 유형이 있습니다.

  • 데이터 마트
  • 온라인 분석 처리 (OLAP)
  • 온라인 트랜잭션 처리 (OLTP)
  • 예측 분석 (PA)

데이터 마트

데이터 마트는 가장 단순한 형태의 데이터웨어 하우스 시스템으로 알려져 있으며 일반적으로 영업, 재무 또는 마케팅 등과 같은 조직의 단일 기능 영역으로 구성됩니다.

조직의 데이터 마트이며 단일 부서에서 생성 및 관리합니다. 단일 부서에 속하기 때문에 부서는 일반적으로 몇 가지 또는 한 가지 유형의 소스 / 애플리케이션에서만 데이터를 가져옵니다. 이 소스는 내부 운영 시스템, 데이터웨어 하우스 또는 외부 시스템 일 수 있습니다.

온라인 분석 처리

OLAP 시스템에서는 트랜잭션 시스템에 비해 트랜잭션 수가 적습니다. 실행되는 쿼리는 본질적으로 복잡하며 데이터 집계를 포함합니다.

집계 란 무엇입니까?

연간 (1 행), 분기 별 (4 행), 월간 (12 행) 등과 같이 집계 된 데이터가있는 테이블을 저장합니다. 누군가가 1 년 간 비교해야하는 경우 하나의 행만 처리됩니다. 그러나 집계되지 않은 테이블에서는 모든 행을 비교합니다.

SELECT SUM(salary)
FROM employee
WHERE title = 'Programmer';

OLAP 시스템의 효과적인 측정

응답 시간은 업계에서 가장 효과적이고 중요한 척도로 알려져 있습니다. OLAP체계. 집계 된 저장된 데이터는 스타 스키마와 같은 다차원 스키마에서 유지됩니다 (데이터가 종종 차원이라고하는 계층 적 그룹과 팩트 및 집계 팩트로 정렬되는 경우이를 스키마라고 함).

OLAP 시스템의 대기 시간은 대기 시간이 하루에 가까워 질 것으로 예상되는 데이터 마트에 비해 몇 시간입니다.

온라인 거래 처리

OLTP 시스템에는 INSERT, UPDATE 및 DELETE와 같은 짧은 온라인 트랜잭션이 많이 있습니다.

OLTP 시스템에서 효과적인 측정은 짧은 트랜잭션의 처리 시간이며 매우 짧습니다. 다중 액세스 환경에서 데이터 무결성을 제어합니다. OLTP 시스템의 경우 초당 트랜잭션 수는effectiveness. OLTP 데이터웨어 하우스 시스템은 현재 및 상세 데이터를 포함하며 엔티티 모델 (3NF)의 스키마에서 유지됩니다.

고객 기록이 매일 삽입, 업데이트 및 삭제되는 소매점의 일일 거래 시스템입니다. 매우 빠른 쿼리 처리를 제공합니다. OLTP 데이터베이스에는 자세한 최신 데이터가 포함됩니다. OLTP 데이터베이스를 저장하는 데 사용되는 스키마는 엔티티 모델입니다.

OLTP와 OLAP의 차이점

다음 그림은 OLTPOLAP 체계.

  • Indexes − OLTP 시스템에는 인덱스가 거의없는 반면 OLAP 시스템에는 성능 최적화를위한 인덱스가 많습니다.

  • Joins− OLTP 시스템에서 많은 수의 조인과 데이터가 정규화됩니다. 그러나 OLAP 시스템에서는 조인 수가 적고 비정규 화됩니다.

  • Aggregation − OLTP 시스템에서는 데이터가 집계되지 않지만 OLAP 데이터베이스에서는 더 많은 집계가 사용됩니다.

예측 분석

예측 분석은 미래의 결과를 예측하기 위해 다양한 수학 함수를 사용하여 DW 시스템에 저장된 데이터에서 숨겨진 패턴을 찾는 것으로 알려져 있습니다.

Predictive Analysis 시스템은 사용 측면에서 OLAP 시스템과 다릅니다. 미래의 결과에 초점을 맞추는 데 사용됩니다. OALP 시스템은 분석보고를위한 현재 및 과거 데이터 처리에 중점을 둡니다.

DW 시스템의 기능을 충족하는 다양한 데이터웨어 하우스 / 데이터베이스 시스템이 시장에 나와 있습니다. 데이터웨어 하우스 시스템의 가장 일반적인 공급 업체는 다음과 같습니다.

  • Microsoft SQL 서버
  • Oracle Exadata
  • IBM Netezza
  • Teradata
  • Sybase IQ
  • SAP Business Warehouse (SAP BW)

SAP Business Warehouse

SAP Business WarehouseSAP NetWeaver 릴리스 플랫폼의 일부입니다. NetWeaver 7.4 이전에는 SAP NetWeaver Business Warehouse라고했습니다.

SAP BW의 데이터웨어 하우징은 데이터 통합, 변환, 데이터 정리, 저장 및 데이터 스테이징을 의미합니다. DW 프로세스에는 BW 시스템의 데이터 모델링, 스테이징 및 관리가 포함됩니다. BW 시스템에서 DW 작업을 관리하는 데 사용되는 주요 도구는 관리 워크 벤치입니다.

주요 특징들

  • SAP BW는 분석 서비스 및 비즈니스 계획, 분석보고, 쿼리 처리 및 정보, 엔터프라이즈 데이터웨어 하우징을 포함하는 비즈니스 인텔리전스와 같은 기능을 제공합니다.

  • 의사 결정에 도움이되는 데이터베이스 및 데이터베이스 관리 도구의 조합을 제공합니다.

  • BW 시스템의 다른 주요 기능으로는 비 SAP R / 3 응용 프로그램에 대한 연결을 지원하는 BAPI (Business Application Programming Interface), 자동화 된 데이터 추출 및로드, 통합 OLAP 프로세서, 메타 데이터 저장소, 관리 도구, 다국어 지원 및 웹 지원 인터페이스.

  • SAP BW는 1998 년 독일 회사 인 SAP에 의해 처음 소개되었습니다. SAP BW 시스템은 SAP R3 데이터에 대해 엔터프라이즈 데이터웨어 하우스를 쉽고 간단하며보다 효율적으로 만들기위한 모델 중심 접근 방식을 기반으로했습니다.

  • 지난 16 년 동안 SAP BW는 많은 기업이 엔터프라이즈 데이터웨어 하우징 요구 사항을 관리하기위한 핵심 시스템 중 하나로 발전했습니다.

  • 비즈니스 탐색기 (BEx) 회사에서 유연한보고, 전략적 분석 및 운영보고를위한 옵션을 제공합니다.

  • BI 시스템에서보고, 질의 실행, 분석 기능을 수행하는데 사용됩니다. 또한 웹 및 Excel 형식을 통해 다양한 수준의 세부 정보까지 현재 및 과거 데이터를 처리 할 수 ​​있습니다.

  • 사용 BEx 정보 방송, BI 콘텐츠는 이메일을 통해 문서로 공유하거나 링크 형태로 라이브 데이터로 공유하거나 SAP EP 기능을 사용하여 게시 할 수도 있습니다.

비즈니스 개체 및 제품

가장 일반적인 비즈니스 인텔리전스 도구로 알려진 SAP Business Objects는 다양한 플랫폼에서 데이터, 사용자 액세스, 분석, 서식 지정 및 게시 정보를 조작하는 데 사용됩니다. 이는 비즈니스 사용자와 의사 결정자가 비즈니스 인텔리전스의 현재 및 과거 데이터를 표시, 정렬 및 분석 할 수 있도록하는 프런트 엔드 기반 도구 세트입니다.

다음 도구로 구성됩니다-

Web Intelligence

Web Intelligence (WebI)는 드릴, 계층 구조, 차트, 계산 된 측정 값 등과 같은 다양한 데이터 분석 기능을 지원하는 가장 일반적인 Business Objects 세부보고 도구로 불립니다.이를 통해 최종 사용자는 쿼리 패널에서 임시 쿼리를 만들 수 있습니다. 온라인과 오프라인 모두에서 데이터 분석을 수행합니다.

SAP Business Objects Xcelsius / 대시 보드

대시 보드는 최종 사용자에게 데이터 시각화 및 대시 보드 기능을 제공하며이 도구를 사용하여 대화 형 대시 보드를 만들 수 있습니다.

또한 다양한 유형의 차트 및 그래프를 추가하고 데이터 시각화를위한 동적 대시 보드를 만들 수 있으며 이들은 주로 조직의 재무 회의에 사용됩니다.

크리스탈 리포트

Crystal Reports는 완벽한 픽셀보고를 위해 사용됩니다. 이를 통해 사용자는 보고서를 작성 및 디자인하고 나중에 인쇄 목적으로 사용할 수 있습니다.

탐침

Explorer를 사용하면 사용자가 BI 저장소의 콘텐츠를 검색 할 수 있으며 가장 일치하는 항목이 차트 형식으로 표시됩니다. 검색을 수행하기 위해 쿼리를 기록 할 필요가 없습니다.

자세한보고, 데이터 시각화 및 대시 보드 목적으로 도입 된 다양한 기타 구성 요소 및 도구는 Design Studio, Microsoft Office 용 Analysis 에디션, BI 저장소 및 Business Objects 모바일 플랫폼입니다.

ETL은 추출, 변환 및로드를 나타냅니다. ETL 도구는 다른 RDBMS 소스 시스템에서 데이터를 추출하고 계산 적용, 연결 등과 같은 데이터를 변환 한 다음 데이터를 데이터웨어 하우스 시스템에로드합니다. 데이터는 차원 및 팩트 테이블의 형태로 DW 시스템에로드됩니다.

추출

  • ETL로드 중에 스테이징 영역이 필요합니다. 스테이징 영역이 필요한 이유는 여러 가지가 있습니다.

  • 소스 시스템은 특정 기간 동안 만 데이터를 추출 할 수 있습니다. 이 기간은 총 데이터로드 시간보다 짧습니다. 따라서 스테이징 영역을 사용하면 소스 시스템에서 데이터를 추출하고 시간 슬롯이 끝나기 전에 스테이징 영역에 보관할 수 있습니다.

  • 여러 데이터 소스에서 데이터를 함께 가져 오거나 둘 이상의 시스템을 결합하려는 경우 스테이징 영역이 필요합니다. 예를 들어 물리적으로 다른 두 데이터베이스의 두 테이블을 결합하는 SQL 쿼리를 수행 할 수 없습니다.

  • 다른 시스템에 대한 데이터 추출 시간 슬롯은 시간대 및 운영 시간에 따라 다릅니다.

  • 소스 시스템에서 추출한 데이터는 여러 데이터웨어 하우스 시스템, 운영 데이터 저장소 등에서 사용할 수 있습니다.

  • ETL을 사용하면 복잡한 변환을 수행 할 수 있으며 데이터를 저장할 추가 영역이 필요합니다.

변환

데이터 변환에서 추출 된 데이터에 함수 세트를 적용하여 대상 시스템에로드합니다. 변환이 필요하지 않은 데이터를 직접 이동 또는 데이터 통과라고합니다.

소스 시스템에서 추출 된 데이터에 다른 변환을 적용 할 수 있습니다. 예를 들어 사용자 정의 계산을 수행 할 수 있습니다. 총 판매 수익을 원하고 이것이 데이터베이스에없는 경우 다음을 적용 할 수 있습니다.SUM 수식을 변환하고 데이터를로드합니다.

예를 들어 다른 열의 테이블에 이름과 성이있는 경우로드하기 전에 연결을 사용할 수 있습니다.

하중

로드 단계 동안 데이터는 최종 대상 시스템으로로드되며 플랫 파일 또는 데이터웨어 하우스 시스템 일 수 있습니다.

SAP BO 데이터 서비스는 데이터 통합, 데이터 품질, 데이터 프로파일 링 및 데이터 처리에 사용되는 ETL 도구입니다. 이를 통해 분석보고를 위해 신뢰할 수있는 데이터를 데이터웨어 하우스 시스템으로 통합하고 변환 할 수 있습니다.

BO 데이터 서비스는 UI 개발 인터페이스, 메타 데이터 저장소, 소스 및 대상 시스템에 대한 데이터 연결 및 작업 예약을위한 관리 콘솔로 구성됩니다.

데이터 통합 ​​및 데이터 관리

SAP BO Data Services는 데이터 통합 ​​및 관리 도구이며 Data Integrator 작업 서버 및 Data Integrator Designer로 구성됩니다.

주요 특징들

  • Data Integrator 언어를 사용하여 다양한 데이터 변환을 적용하여 복잡한 데이터 변환을 적용하고 사용자 정의 된 기능을 빌드 할 수 있습니다.

  • Data Integrator Designer는 실시간 및 배치 작업과 새 프로젝트를 저장소에 저장하는 데 사용됩니다.

  • DI Designer는 또한 모든 기본 기능이 포함 된 중앙 저장소를 제공하여 팀 기반 ETL 개발 옵션을 제공합니다.

  • Data Integrator 작업 서버는 DI Designer를 사용하여 생성 된 작업을 처리합니다.

웹 관리자

Data Integrator 웹 관리자는 시스템 관리자와 데이터베이스 관리자가 데이터 서비스에서 저장소를 유지 관리하는 데 사용됩니다. 데이터 서비스에는 메타 데이터 저장소, 팀 기반 개발을위한 중앙 저장소, 작업 서버 및 웹 서비스가 포함됩니다.

DI 웹 관리자의 주요 기능

  • 배치 작업을 예약, 모니터링 및 실행하는 데 사용됩니다.
  • 실시간 서버 구성 및 시작 및 중지에 사용됩니다.
  • 작업 서버, 액세스 서버 및 저장소 사용을 구성하는 데 사용됩니다.
  • 어댑터 구성에 사용됩니다.
  • BO 데이터 서비스의 모든 도구를 구성하고 제어하는 ​​데 사용됩니다.

데이터 관리 기능은 데이터 품질을 강조합니다. 여기에는 DW 시스템에서 올바른 데이터를 얻기 위해 데이터 정리, 향상 및 통합이 포함됩니다.

이 장에서는 SAP BODS 아키텍처에 대해 알아 봅니다. 그림은 스테이징 영역이있는 BODS 시스템의 아키텍처를 보여줍니다.

소스 레이어

소스 계층에는 SAP 애플리케이션 및 비 SAP RDBMS 시스템과 같은 다양한 데이터 소스가 포함되며 데이터 통합은 스테이징 영역에서 이루어집니다.

SAP Business Objects 데이터 서비스에는 데이터 서비스 디자이너, 데이터 서비스 관리 콘솔, 리포지토리 관리자, 데이터 서비스 서버 관리자, 작업 벤치 등과 같은 다양한 구성 요소가 포함됩니다. 대상 시스템은 SAP HANA, SAP BW 또는 비 SAP와 같은 DW 시스템 일 수 있습니다. 데이터웨어 하우스 시스템.

다음 스크린 샷은 SAP BODS의 다양한 구성 요소를 보여줍니다.

다음 레이어에서 BODS 아키텍처를 나눌 수도 있습니다.

  • 웹 애플리케이션 계층
  • 데이터베이스 서버 계층
  • 데이터 서비스 서비스 계층

다음 그림은 BODS 아키텍처를 보여줍니다.

제품 진화 – ATL, DI 및 DQ

Acta Technology Inc.는 SAP Business Objects Data Services를 개발했으며 나중에 Business Objects Company가 인수했습니다. Acta Technology Inc.는 미국에 기반을 둔 회사로 최초의 데이터 통합 ​​플랫폼 개발을 담당했습니다. Acta Inc.에서 개발 한 두 가지 ETL 소프트웨어 제품은Data Integration (DI) 도구와 Data Management 또는 Data Quality (DQ) 도구.

프랑스 회사 인 Business Objects는 2002 년에 Acta Technology Inc.를 인수했으며 두 제품 모두 다음과 같이 이름이 변경되었습니다. Business Objects Data Integration (BODI) 도구 및 Business Objects Data Quality (BODQ) 수단.

SAP는 2007 년에 Business Objects를 인수했으며 두 제품 모두 SAP BODI 및 SAP BODQ로 이름이 변경되었습니다. 2008 년에 SAP는 두 제품을 모두 SAP Business Objects Data Services (BODS)라는 단일 소프트웨어 제품에 통합했습니다.

SAP BODS는 데이터 통합 ​​및 데이터 관리 솔루션을 제공하며 이전 버전의 BODS에는 텍스트 데이터 처리 솔루션이 포함되었습니다.

BODS – 개체

BO 데이터 서비스 디자이너에서 사용되는 모든 엔터티가 호출됩니다. Objects. 프로젝트, 작업, 메타 데이터 및 시스템 기능과 같은 모든 개체는 로컬 개체 라이브러리에 저장됩니다. 모든 개체는 본질적으로 계층 적입니다.

객체는 주로 다음을 포함합니다-

  • Properties− 객체를 설명하는 데 사용되며 작동에 영향을주지 않습니다. 예-개체의 이름, 생성 된 날짜 등

  • Options − 개체의 작동을 제어합니다.

개체 유형

시스템에는 재사용 가능한 개체와 일회용 개체의 두 가지 유형의 개체가 있습니다. 개체 유형에 따라 해당 개체가 사용 및 검색되는 방법이 결정됩니다.

재사용 가능한 개체

저장소에 저장된 대부분의 개체를 재사용 할 수 있습니다. 재사용 가능한 객체가 정의되고 로컬 저장소에 저장되면 정의에 대한 호출을 생성하여 객체를 재사용 할 수 있습니다. 재사용 가능한 각 개체에는 하나의 정의 만 있으며 해당 개체에 대한 모든 호출은 해당 정의를 참조합니다. 이제 개체의 정의가 한 곳에서 변경되면 해당 개체가 나타나는 모든 위치에서 개체 정의가 변경됩니다.

개체 라이브러리는 개체 정의를 포함하는 데 사용되며 개체를 라이브러리에서 끌어서 놓을 때 기존 개체에 대한 새 참조가 만들어집니다.

일회용 개체

작업 또는 데이터 흐름에 특별히 정의 된 모든 개체를 일회용 개체라고합니다. 예를 들어 모든 데이터로드에 사용되는 특정 변환입니다.

BODS – 개체 계층

모든 개체는 본질적으로 계층 적입니다. 다음 다이어그램은 SAP BODS 시스템의 개체 계층을 보여줍니다-

BODS-도구 및 기능

아래에 설명 된 아키텍처를 기반으로 SAP Business Objects Data Services에 정의 된 많은 도구가 있습니다. 각 도구에는 시스템 환경에 따라 고유 한 기능이 있습니다.

맨 위에는 사용자 및 권한 보안 관리를위한 정보 플랫폼 서비스가 설치되어 있습니다. BODS는 중앙 관리 콘솔 (CMC) 사용자 액세스 및 보안 기능. 4.x 버전에 적용됩니다. 이전 버전에서는 관리 콘솔에서 수행되었습니다.

데이터 서비스 디자이너는 데이터 매핑, 변환 및 논리로 구성된 개체를 만드는 데 사용되는 개발자 도구입니다. GUI 기반이며 데이터 서비스의 디자이너로 작동합니다.

저장소

저장소는 BO 데이터 서비스에서 사용되는 개체의 메타 데이터를 저장하는 데 사용됩니다. 각 리포지토리는 중앙 관리 콘솔에 등록되어야하며 사용자가 만든 작업을 실행하는 단일 또는 여러 작업 서버와 연결되어야합니다.

저장소 유형

세 가지 유형의 저장소가 있습니다.

  • Local Repository − 프로젝트, 작업, 데이터 흐름, 워크 플로 등과 같이 데이터 서비스 디자이너에서 생성 된 모든 개체의 메타 데이터를 저장하는 데 사용됩니다.

  • Central Repository− 객체의 버전 관리를 제어하는 ​​데 사용되며 다용도 개발에 사용됩니다. 중앙 저장소는 응용 프로그램 개체의 모든 버전을 저장합니다. 따라서 이전 버전으로 이동할 수 있습니다.

  • Profiler Repository− SAP BODS 디자이너에서 수행되는 프로파일 러 작업과 관련된 모든 메타 데이터를 관리하는 데 사용됩니다. CMS 리포지토리는 BI 플랫폼의 CMC에서 수행 된 모든 작업의 ​​메타 데이터를 저장합니다. Information Steward Repository는 정보 스튜어드에서 생성 된 프로파일 링 작업 및 개체의 모든 메타 데이터를 저장합니다.

작업 서버

작업 서버는 사용자가 만든 실시간 및 일괄 작업을 실행하는 데 사용됩니다. 각 저장소에서 작업 정보를 가져와 데이터 엔진을 시작하여 작업을 실행합니다. 작업 서버는 실시간 또는 예약 된 작업을 실행할 수 있으며 메모리 캐싱 및 병렬 처리에서 멀티 스레딩을 사용하여 성능 최적화를 제공합니다.

액세스 서버

데이터 서비스에서 액세스 서버는 메시지 요청을 받아 실시간 서비스로 이동하여 특정 시간 프레임에 메시지를 표시하는 실시간 메시지 브로커 시스템으로 알려져 있습니다.

데이터 서비스 관리 콘솔

데이터 서비스 관리 콘솔은 작업 예약, DS 시스템에서 품질 보고서 생성, 데이터 유효성 검사, 문서화 등과 같은 관리 활동을 수행하는 데 사용됩니다.

BODS – 명명 표준

모든 시스템의 모든 개체에 대해 표준 명명 규칙을 사용하는 것이 좋습니다. 이렇게하면 저장소에서 개체를 쉽게 식별 할 수 있습니다.

이 표에는 모든 작업 및 기타 개체에 사용해야하는 권장 명명 규칙 목록이 나와 있습니다.

접두사 접미사 목적
DF_ 해당 사항 없음 데이터 흐름
EDF_ _입력 임베디드 데이터 흐름
EDF_ _산출 임베디드 데이터 흐름
RTJob_ 해당 사항 없음 실시간 직업
WF_ 해당 사항 없음 작업 흐름
일_ 해당 사항 없음
해당 사항 없음 _DS 데이터 스토어
DC_ 해당 사항 없음 데이터 구성
SC_ 해당 사항 없음 시스템 설정
해당 사항 없음 _Memory_DS 메모리 데이터 저장소
PROC_ 해당 사항 없음 저장 프로 시저

BO 데이터 서비스 기본에는 프로젝트, 작업, 작업 흐름, 데이터 흐름, 리포지토리와 같은 작업 흐름을 디자인하는 주요 개체가 포함됩니다.

BODS – 저장소 및 유형

저장소는 BO 데이터 서비스에서 사용되는 개체의 메타 데이터를 저장하는 데 사용됩니다. 각 리포지토리는 중앙 관리 콘솔, CMC에 등록되어야하며 사용자가 만든 작업을 실행하는 단일 또는 여러 작업 서버와 연결됩니다.

저장소 유형

세 가지 유형의 저장소가 있습니다.

  • Local Repository − 프로젝트, 작업, 데이터 흐름, 워크 플로 등과 같이 데이터 서비스 디자이너에서 생성 된 모든 개체의 메타 데이터를 저장하는 데 사용됩니다.

  • Central Repository− 객체의 버전 관리를 제어하는 ​​데 사용되며 다용도 개발에 사용됩니다. 중앙 저장소는 응용 프로그램 개체의 모든 버전을 저장합니다. 따라서 이전 버전으로 이동할 수 있습니다.

  • Profiler Repository− SAP BODS 디자이너에서 수행되는 프로파일 러 작업과 관련된 모든 메타 데이터를 관리하는 데 사용됩니다. CMS 리포지토리는 BI 플랫폼의 CMC에서 수행 된 모든 작업의 ​​메타 데이터를 저장합니다. Information Steward Repository는 정보 스튜어드에서 생성 된 프로파일 링 작업 및 개체의 모든 메타 데이터를 저장합니다.

BODS Repository를 생성하려면 데이터베이스가 설치되어 있어야합니다. SQL Server, Oracle 데이터베이스, My SQL, SAP HANA, Sybase 등을 사용할 수 있습니다.

저장소 생성

BODS를 설치하고 Repositories를 생성하려면 데이터베이스에 다음 사용자를 생성해야합니다. 이러한 사용자는 CMS 서버, 감사 서버 등과 같은 다른 서버에 로그인해야합니다.

Bodsserver1로 식별되는 사용자 BODS 생성

  • BODS에 연결을 허용하십시오.
  • BODS에 세션 생성 권한 부여;
  • BODS에 DBA 부여
  • BODS에 모든 테이블 만들기 권한 부여;
  • BODS에 모든보기 만들기 권한 부여;
  • BODS에 모든 테이블 삭제 권한 부여;
  • BODS에 모든보기 삭제 권한 부여;
  • BODS에 모든 테이블 삽입 허용;
  • BODS에 모든 테이블 업데이트 부여;
  • BODS에 모든 테이블 삭제 권한 부여;
  • 사용자 제한없이 사용자 보드 할당량 변경

CMSserver1로 식별되는 사용자 CMS 만들기

  • CMS에 연결을 허용합니다.
  • CMS에 세션 만들기 권한을 부여합니다.
  • CMS에 DBA 부여
  • CMS에 모든 테이블 만들기 권한 부여;
  • CMS에 모든보기 만들기를 부여합니다.
  • CMS에 모든 테이블 삭제 권한 부여;
  • CMS에 모든보기 삭제 권한 부여;
  • CMS에 모든 테이블 삽입 허용;
  • CMS에 모든 테이블 업데이트 부여;
  • CMS에 모든 테이블 삭제 권한 부여;
  • 사용자에 대한 무제한 사용자 CMS 할당량 변경;

CMSAUDITserver1로 식별되는 사용자 CMSAUDIT 생성

  • CMSAUDIT에 연결을 부여하십시오.
  • CMSAUDIT에 세션 생성 권한을 부여합니다.
  • CMSAUDIT에 DBA를 부여합니다.
  • CMSAUDIT에 모든 테이블 만들기 권한을 부여합니다.
  • CMSAUDIT에 모든보기 만들기를 부여합니다.
  • CMSAUDIT에 모든 테이블 삭제 권한 부여;
  • CMSAUDIT에 모든보기 삭제 권한 부여;
  • CMSAUDIT에 모든 테이블 삽입 권한 부여;
  • CMSAUDIT에 모든 테이블 업데이트 부여;
  • CMSAUDIT에 모든 테이블 삭제 권한 부여;
  • 사용자에 대한 사용자 CMSAUDIT 할당량 무제한 변경;

설치 후 새 저장소를 만들려면

Step 1 − 데이터베이스 생성 Local_Repo데이터 서비스 리포지토리 관리자로 이동합니다. 데이터베이스를 로컬 저장소로 구성하십시오.

새 창이 열립니다.

Step 2 − 다음 필드에 세부 정보를 입력합니다 −

리포지토리 유형, 데이터베이스 유형, 데이터베이스 서버 이름, 포트, 사용자 이름 및 암호.

Step 3 − 클릭 Create단추. 다음 메시지가 표시됩니다.

Step 4 − 이제 중앙 관리 콘솔 CMC에 로그인하십시오. SAP BI Platform 사용자 이름과 암호로.

Step 5 − CMC 홈 페이지에서 Data Services.

Step 6 −에서 Data Services 메뉴, 클릭 Configure a new Data Services 저장소.

Step 7 − 새 창에 제공된 세부 정보를 입력합니다.

  • 저장소 이름 : Local_Repo
  • 데이터베이스 유형 : SAP HANA
  • 데이터베이스 서버 이름 : best
  • 데이터베이스 이름 : LOCAL_REPO
  • 사용자 이름:
  • Password:*****

Step 8 − 버튼 클릭 Test Connection 성공하면 Save. 저장하면 CMC의 리포지토리 탭에 표시됩니다.

Step 9 − 로컬 저장소에 대한 액세스 권한 및 보안 적용 CMC → User and Groups.

Step 10 − 액세스 권한이 부여되면 데이터 서비스 디자이너 → 리포지토리 선택 → 사용자 이름과 암호를 입력하여 로그인합니다.

리포지토리 업데이트

저장소를 업데이트하려면 주어진 단계를 따르십시오.

Step 1 − 설치 후 리포지토리를 업데이트하려면 데이터베이스를 생성하십시오. Local_Repo 데이터 서비스 리포지토리 관리자로 이동합니다.

Step 2 − 데이터베이스를 로컬 저장소로 구성합니다.

새 창이 열립니다.

Step 3 − 다음 필드에 대한 세부 정보를 입력합니다.

리포지토리 유형, 데이터베이스 유형, 데이터베이스 서버 이름, 포트, 사용자 이름 및 암호.

아래 스크린 샷과 같이 출력이 표시됩니다.

DSMC (Data Service Management Console)는 작업 예약, DS 시스템에서 품질 보고서 생성, 데이터 유효성 검사, 문서화 등과 같은 관리 활동을 수행하는 데 사용됩니다.

다음과 같은 방법으로 데이터 서비스 관리 콘솔에 액세스 할 수 있습니다.

다음으로 이동하여 데이터 서비스 관리 콘솔에 액세스 할 수 있습니다. Start → All Programs → Data Services → Data Service Management Console.

다음을 통해 데이터 서비스 관리 콘솔에 액세스 할 수도 있습니다. Designer 이미 로그인되어있는 경우.

다음을 통해 데이터 서비스 관리 콘솔에 액세스하려면 Designer Home Page 아래 단계를 따르십시오.

도구를 통해 데이터 서비스 관리 콘솔에 액세스하려면 주어진 단계를 따르십시오-

Step 1 − 이동 Tools → Data Services Management Console 다음 이미지에 표시된대로.

Step 2 − 로그인 후 Data Services Management Console, 아래 스크린 샷과 같이 홈 화면이 열립니다. 상단에서 로그인 한 사용자 이름을 볼 수 있습니다.

홈페이지에서 다음 옵션을 볼 수 있습니다.

  • Administrator
  • 자동 문서화
  • 데이터 유효성 검사
  • 영향 및 계보 분석
  • 운영 대시 보드
  • 데이터 품질 보고서

이 장에서는 데이터 서비스 관리 콘솔의 각 모듈의 주요 기능에 대해 설명합니다.

관리자 모듈

관리자 옵션은 관리하는 데 사용됩니다-

  • 사용자 및 역할
  • 액세스 서버 및 저장소에 대한 연결을 추가하려면
  • 웹 서비스 용으로 게시 된 작업 데이터에 액세스하려면
  • 배치 작업 예약 및 모니터링
  • 접속 서버 상태 및 실시간 서비스를 확인합니다.

클릭하면 Administrator탭에서 왼쪽 창에 많은 링크를 볼 수 있습니다. 그들은-상태, 배치, 웹 서비스, SAP 연결, 서버 그룹, 프로파일 러 저장소 관리 및 작업 실행 기록입니다.

노드

관리자 모듈 아래에있는 다양한 노드는 아래에서 설명합니다.

상태

상태 노드는 배치 및 실시간 작업의 상태, 액세스 서버 상태, 어댑터 및 프로파일 러 저장소, 기타 시스템 상태를 확인하는 데 사용됩니다.

상태 → 저장소 선택을 클릭하십시오.

오른쪽 창에 다음 옵션 탭이 표시됩니다.

Batch Job Status− 배치 작업의 상태를 확인하는 데 사용됩니다. Trace, Monitor, Error, Performance Monitor, Start Time, End Time, Duration 등의 작업 정보를 확인할 수 있습니다.

Batch Job Configuration − 일괄 작업 설정은 개별 작업의 일정을 확인하거나 실행, 일정 추가, 실행 명령 내보내기와 같은 작업을 추가 할 수 있습니다.

Repositories Schedules − 저장소의 모든 작업에 대한 일정을보고 구성하는 데 사용됩니다.

배치 노드

Batch Job 노드 아래에 위와 동일한 옵션이 표시됩니다.

Sr. No. 옵션 및 설명
1

Batch Job Status

마지막 실행 상태와 각 작업에 대한 자세한 정보를 봅니다.

2

Batch Job Configuration

개별 작업에 대한 실행 및 예약 옵션을 구성합니다.

Repository Schedules

저장소의 모든 작업에 대한 일정을보고 구성합니다.

웹 서비스 노드

웹 서비스는 실시간 작업 및 배치 작업을 웹 서비스 작업으로 게시하고 이러한 작업의 상태를 확인하는 데 사용됩니다. 이것은 또한 웹 서비스로 게시 된 작업에 대한 보안을 유지하고WSDL 파일.

SAP 연결

SAP Connections는 상태를 확인하거나 구성하는 데 사용됩니다. RFC server interface 데이터 서비스 관리 콘솔에서.

RFC 서버 인터페이스의 상태를 확인하려면 RFC 서버 인터페이스 상태 탭으로 이동하십시오. 새 RFC 서버 인터페이스를 추가하려면 구성 탭에서Add.

새 창이 열리면 RFC 서버 구성 세부 정보를 입력하고 Apply.

서버 그룹

동일한 저장소와 연관된 모든 작업 서버를 하나의 서버 그룹으로 그룹화하는 데 사용됩니다. 이 탭은 데이터 서비스에서 작업을 실행하는 동안로드 밸런싱에 사용됩니다.

작업이 실행되면 해당 작업 서버를 확인하고 다운되면 같은 그룹의 다른 작업 서버로 작업을 이동합니다. 로드 밸런싱을 위해 프로덕션에서 주로 사용됩니다.

프로필 저장소

프로파일 저장소를 관리자에 연결하면 프로파일 저장소 노드를 확장 할 수 있습니다. 프로필 작업 상태 페이지로 이동할 수 있습니다.

관리 노드

관리자 탭의 기능을 사용하려면 관리 노드를 사용하여 데이터 서비스에 대한 연결을 추가해야합니다. 관리 노드는 관리 응용 프로그램에 대한 다양한 구성 옵션으로 구성됩니다.

작업 실행 내역

작업 또는 데이터 흐름의 실행 내역을 확인하는 데 사용됩니다. 이 옵션을 사용하면 하나의 일괄 작업 또는 사용자가 만든 모든 일괄 작업의 실행 기록을 확인할 수 있습니다.

작업을 선택하면 Repository 이름, 작업 이름, 시작 시간, 종료 시간, 실행 시간, 상태 등으로 구성된 테이블 형태로 정보가 표시됩니다.

데이터 서비스 디자이너는 데이터 매핑, 변환 및 논리로 구성된 개체를 만드는 데 사용되는 개발자 도구입니다. GUI 기반이며 데이터 서비스의 디자이너로 작동합니다.

프로젝트, 작업, 워크 플로, 데이터 흐름, 매핑, 변환 등과 같은 데이터 서비스 디자이너를 사용하여 다양한 개체를 만들 수 있습니다.

데이터 서비스 디자이너를 시작하려면 아래 단계를 따르십시오.

Step 1 − 시작 → 모든 프로그램 → SAP Data Services 4.2 → Data Services Designer를 가리 킵니다.

Step 2 − 저장소를 선택하고 로그인 할 비밀번호를 입력합니다.

리포지토리를 선택하고 데이터 서비스 디자이너에 로그인하면 아래 이미지와 같이 홈 화면이 나타납니다.

왼쪽 창에는 새 프로젝트, 작업, 데이터 흐름, 워크 플로 등을 만들 수있는 프로젝트 영역이 있습니다. 프로젝트 영역에는 데이터 서비스에서 만든 모든 개체로 구성된 로컬 개체 라이브러리가 있습니다.

아래쪽 창에서 프로젝트, 작업, 데이터 흐름, 워크 플로 등과 같은 특정 옵션으로 이동하여 기존 개체를 열 수 있습니다. 아래쪽 창에서 개체를 선택하면 이미 유사한 개체가 모두 표시됩니다. 로컬 개체 라이브러리의 저장소에 생성되었습니다.

오른쪽에는 다음과 같은 용도로 사용할 수있는 홈 화면이 있습니다.

  • 프로젝트 생성
  • 프로젝트 열기
  • 데이터 저장소 만들기
  • 리포지토리 생성
  • 플랫 파일에서 가져 오기
  • 데이터 서비스 관리 콘솔

ETL 흐름을 개발하려면 먼저 소스 및 대상 시스템에 대한 데이터 저장소를 만들어야합니다. ETL 흐름을 개발하기 위해 주어진 단계를 따르십시오-

Step 1 − 클릭 Create Data Stores.

새 창이 열립니다.

Step 2 − 입력 Datastore 이름, Datastore유형 및 데이터베이스 유형은 아래와 같습니다. 아래 스크린 샷과 같이 소스 시스템으로 다른 데이터베이스를 선택할 수 있습니다.

Step 3− ECC 시스템을 데이터 소스로 사용하려면 데이터 저장소 유형으로 SAP 애플리케이션을 선택합니다. 사용자 이름과 암호를 입력하고Advance 탭에서 시스템 번호와 클라이언트 번호를 입력합니다.

Step 4− 확인을 클릭하면 데이터 저장소가 로컬 개체 라이브러리 목록에 추가됩니다. Datastore를 확장하면 테이블이 표시되지 않습니다.

Step 5 − ECC 시스템에서 테이블을 추출하여 대상 시스템에로드하려면 테이블 → 이름으로 가져 오기를 마우스 오른쪽 버튼으로 클릭합니다.

Step 6 − 테이블 이름을 입력하고 클릭 Import. 여기서는 ECC 시스템의 기본 테이블 인 Table–Mara가 사용됩니다.

Step 7 − 비슷한 방법으로 Datastore대상 시스템. 이 예에서는 HANA가 대상 시스템으로 사용됩니다.

확인을 클릭하면 Datastore 로컬 개체 라이브러리에 추가되고 그 안에 테이블이 없습니다.

ETL 흐름 만들기

ETL 흐름을 만들려면 새 프로젝트를 만듭니다.

Step 1 − 옵션을 클릭하고, Create Project. 프로젝트 이름을 입력하고Create. 프로젝트 영역에 추가됩니다.

Step 2 − 프로젝트 이름을 마우스 오른쪽 버튼으로 클릭하고 새 배치 작업 / 실시간 작업을 생성합니다.

Step 3− 작업 이름을 입력하고 Enter를 누릅니다. 여기에 워크 플로와 데이터 흐름을 추가해야합니다. 워크 플로를 선택하고 작업에 추가 할 작업 영역을 클릭합니다. 워크 플로우 이름을 입력하고 두 번 클릭하여 프로젝트 영역에 추가합니다.

Step 4− 비슷한 방법으로 데이터 흐름을 선택하고 프로젝트 영역으로 가져옵니다. 데이터 흐름의 이름을 입력하고 두 번 클릭하여 새 프로젝트 아래에 추가합니다.

Step 5− 이제 데이터 저장소 아래의 소스 테이블을 작업 영역으로 드래그합니다. 이제 데이터 유형이 유사한 대상 테이블을 작업 영역으로 끌거나 새 템플릿 테이블을 만들 수 있습니다.

새 템플릿 테이블을 생성하려면 소스 테이블을 마우스 오른쪽 버튼으로 클릭하고 새로 추가 → 템플릿 테이블을 클릭합니다.

Step 6− 테이블 이름을 입력하고 목록에서 대상 데이터 저장소로 데이터 저장소를 선택합니다. 소유자 이름은 테이블을 생성해야하는 스키마 이름을 나타냅니다.

이 테이블 이름으로 작업 영역에 테이블이 추가됩니다.

Step 7− 소스 테이블에서 대상 테이블로 라인을 드래그합니다. 클릭Save All 상단의 옵션.

이제 데이터 서비스 관리 콘솔을 사용하여 작업을 예약하거나 작업 이름을 마우스 오른쪽 단추로 클릭하고 실행하여 수동으로 실행할 수 있습니다.

데이터 스토어는 애플리케이션과 데이터베이스 간의 연결을 설정하는 데 사용됩니다. Datastore를 직접 만들거나 어댑터를 사용하여 만들 수 있습니다. Datastore를 사용하면 애플리케이션 / 소프트웨어가 애플리케이션 또는 데이터베이스에서 메타 데이터를 읽거나 쓰고 해당 데이터베이스 또는 애플리케이션에 쓸 수 있습니다.

Business Objects Data Services에서 Datastore를 사용하여 다음 시스템에 연결할 수 있습니다.

  • 메인 프레임 시스템 및 데이터베이스
  • 사용자 작성 어댑터가있는 애플리케이션 및 소프트웨어
  • SAP 애플리케이션, SAP BW, Oracle Apps, Siebel 등

SAP Business Objects Data Services는 다음을 사용하여 메인 프레임 인터페이스에 연결하는 옵션을 제공합니다. Attunity커넥터. 사용Attunity, 데이터 저장소를 아래 주어진 소스 목록에 연결하십시오-

  • OS / 390 용 DB2 UDB
  • OS / 400 용 DB2 UDB
  • IMS/DB
  • VSAM
  • Adabas
  • OS / 390 및 OS / 400의 플랫 파일

Attunity 커넥터를 사용하면 소프트웨어의 도움으로 메인 프레임 데이터에 연결할 수 있습니다. 이 소프트웨어는 ODBC 인터페이스를 사용하여 메인 프레임 서버와 로컬 클라이언트 작업 서버에 수동으로 설치해야합니다.

호스트 위치, 포트, Attunity 작업 공간 등과 같은 세부 정보를 입력합니다.

데이터베이스 용 데이터 스토어 생성

데이터베이스 용 Datastore를 만들려면 아래 단계를 따르세요.

Step 1− 아래 그림과 같이 데이터 스토어 이름, 데이터 스토어 유형 및 데이터베이스 유형을 입력합니다. 목록에 제공된 소스 시스템으로 다른 데이터베이스를 선택할 수 있습니다.

Step 2− ECC 시스템을 데이터 소스로 사용하려면 데이터 저장소 유형으로 SAP 애플리케이션을 선택합니다. 사용자 이름과 암호를 입력하십시오. 클릭Advance 탭을 누르고 시스템 번호와 클라이언트 번호를 입력합니다.

Step 3− 확인을 클릭하면 데이터 저장소가 로컬 개체 라이브러리 목록에 추가됩니다. Datastore를 확장하면 표시 할 테이블이 없습니다.

이 장에서는 Datastore를 편집하거나 변경하는 방법에 대해 알아 봅니다. Datastore를 변경하거나 수정하려면 아래 단계를 따르세요.

Step 1− 데이터 스토어를 편집하려면 데이터 스토어 이름을 마우스 오른쪽 버튼으로 클릭하고 편집을 클릭합니다. 데이터 저장소 편집기가 열립니다.

현재 데이터 저장소 구성에 대한 연결 정보를 편집 할 수 있습니다.

Step 2 − 클릭 Advance 버튼을 클릭하면 클라이언트 번호, 시스템 ID 및 기타 속성을 편집 할 수 있습니다.

Step 3 − 클릭 Edit 구성을 추가, 편집 및 삭제하는 옵션.

Step 4 − 확인을 클릭하면 변경 사항이 적용됩니다.

메모리를 데이터베이스 유형으로 사용하여 Datastore를 만들 수 있습니다. 메모리 데이터 저장소는 빠른 액세스를 용이하게하기 위해 데이터를 메모리에 저장하고 원래 데이터 소스로 이동할 필요가 없기 때문에 실시간 작업에서 데이터 흐름의 성능을 향상시키는 데 사용됩니다.

메모리 데이터 저장소는 저장소에 메모리 테이블 스키마를 저장하는 데 사용됩니다. 이러한 메모리 테이블은 관계형 데이터베이스의 테이블에서 데이터를 가져 오거나 XML 메시지 및 IDoc와 같은 계층 적 데이터 파일을 사용합니다. 메모리 테이블은 작업이 실행될 때까지 활성 상태로 유지되며 메모리 테이블의 데이터는 다른 실시간 작업간에 공유 될 수 없습니다.

메모리 데이터 스토어 생성

메모리 데이터 저장소를 만들려면 아래 단계를 따르세요.

Step 1 − 데이터 스토어 생성을 클릭하고 데이터 스토어의 이름을 입력합니다. “Memory_DS_TEST”. 메모리 테이블은 일반 RDBMS 테이블과 함께 제공되며 명명 규칙으로 식별 할 수 있습니다.

Step 2 − 데이터 저장소 유형에서 데이터베이스를 선택하고 데이터베이스 유형에서 Memory. 확인을 클릭하십시오.

Step 3 − 이제 아래 스크린 샷과 같이 Project → New → Project로 이동합니다.

Step 4− 마우스 오른쪽 버튼을 클릭하여 새 작업을 생성합니다. 아래와 같이 워크 플로우와 데이터 플로우를 추가합니다.

Step 5− 템플릿 테이블을 선택하고 작업 영역으로 끌어다 놓습니다. 테이블 만들기 창이 열립니다.

Step 6− 테이블 이름을 입력하고 데이터 저장소에서 메모리 데이터 저장소를 선택합니다. 시스템에서 생성 한 행 ID를 원하는 경우create row id확인란. 확인을 클릭하십시오.

Step 7 −이 메모리 테이블을 데이터 흐름에 연결하고 Save All 상단에.

소스 및 대상으로서의 메모리 테이블

메모리 테이블을 대상으로 사용하려면-

Step 1− 로컬 개체 라이브러리로 이동하여 데이터 저장소 탭을 클릭합니다. 메모리 데이터 저장소를 확장하고 → 테이블을 확장합니다.

Step 2− 소스 또는 대상 테이블로 사용할 메모리 테이블을 선택하고 워크 플로우로 끌어옵니다. 이 메모리 테이블을 데이터 흐름의 소스 또는 대상으로 연결합니다.

Step 3 − 클릭 save 버튼을 눌러 작업을 저장하십시오.

한 데이터베이스에서 다른 데이터베이스로의 단방향 통신 경로 만 제공하는 다양한 데이터베이스 공급 업체가 있습니다. 이러한 경로를 데이터베이스 링크라고합니다. SQL Server에서 연결된 서버는 한 데이터베이스에서 다른 데이터베이스로의 단방향 통신 경로를 허용합니다.

이름이 지정된 로컬 데이터베이스 서버를 고려하십시오. “Product” 호출 된 원격 데이터베이스 서버의 정보에 액세스하기위한 데이터베이스 링크를 저장합니다. Customer. 이제 원격 데이터베이스 서버 Customer에 연결된 사용자는 동일한 링크를 사용하여 데이터베이스 서버 Product의 데이터에 액세스 할 수 없습니다. 연결된 사용자“Customer” 제품 데이터베이스 서버의 데이터에 액세스하려면 서버의 데이터 사전에 별도의 링크가 있어야합니다.

두 데이터베이스 간의이 통신 경로를 데이터베이스 링크라고합니다. 이러한 연결된 데이터베이스 관계간에 생성되는 데이터 저장소를 연결된 데이터 저장소라고합니다.

하나의 Datastore를 다른 Datastore에 연결하고 Datastore의 옵션으로 외부 데이터베이스 링크를 가져올 수 있습니다.

Adapter Datastore를 사용하면 애플리케이션 메타 데이터를 저장소로 가져올 수 있습니다. 애플리케이션 메타 데이터에 액세스하고 여러 애플리케이션과 소프트웨어간에 배치 및 실시간 데이터를 이동할 수 있습니다.

어댑터 소프트웨어 개발 키트-맞춤형 어댑터를 개발하는 데 사용할 수있는 SAP에서 제공하는 SDK가 있습니다. 이러한 어댑터는 어댑터 데이터 저장소에 의해 데이터 서비스 디자이너에 표시됩니다.

어댑터를 사용하여 데이터를 추출하거나로드하려면이를 위해 하나 이상의 Datastore를 정의해야합니다.

어댑터 데이터 스토어-정의

적응 형 데이터 저장소를 정의하려면 주어진 단계를 따르십시오-

Step 1 − 클릭 Create Datastore→ 데이터 스토어의 이름을 입력합니다. 어댑터로 데이터 스토어 유형을 선택합니다. 선택Job Server 목록 및 어댑터 인스턴스 이름에서 OK.

응용 프로그램 메타 데이터를 찾아 보려면

데이터 스토어 이름을 마우스 오른쪽 버튼으로 클릭하고 Open. 소스 메타 데이터를 보여주는 새 창이 열립니다. + 기호를 클릭하여 개체를 확인하고 가져올 개체를 마우스 오른쪽 버튼으로 클릭합니다.

파일 형식은 플랫 파일의 구조를 나타내는 속성 집합으로 정의됩니다. 메타 데이터 구조를 정의합니다. 파일 형식은 데이터가 데이터베이스가 아닌 파일에 저장 될 때 소스 및 대상 데이터베이스에 연결하는 데 사용됩니다.

파일 형식은 다음 기능에 사용됩니다.

  • 파일 구조를 정의하는 파일 형식 템플릿을 만듭니다.
  • 데이터 흐름에서 특정 소스 및 대상 파일 형식을 만듭니다.

다음 유형의 파일은 파일 형식을 사용하여 소스 또는 대상 파일로 사용할 수 있습니다-

  • Delimited
  • SAP 전송
  • 구조화되지 않은 텍스트
  • 구조화되지 않은 바이너리
  • 고정 너비

파일 형식 편집기

파일 형식 편집기는 파일 형식 템플릿과 소스 및 대상 파일 형식의 속성을 설정하는 데 사용됩니다.

다음 모드는 파일 형식 편집기에서 사용할 수 있습니다-

  • New mode − 새로운 파일 형식 템플릿을 생성 할 수 있습니다.

  • Edit mode − 기존 파일 형식 템플릿을 편집 할 수 있습니다.

  • Source mode − 특정 소스 파일의 파일 형식을 편집 할 수 있습니다.

  • Target mode − 특정 대상 파일의 파일 형식을 편집 할 수 있습니다.

파일 형식 편집기에는 세 가지 작업 영역이 있습니다.

  • Properties Values − 파일 형식 속성의 값을 편집 할 때 사용합니다.

  • Column Attributes − 파일의 열 또는 필드를 편집하고 정의하는 데 사용됩니다.

  • Data Preview − 설정이 샘플 데이터에 미치는 영향을 볼 때 사용됩니다.

파일 형식 생성

파일 형식을 만들려면 아래 단계를 따르십시오.

Step 1 − 로컬 개체 라이브러리 → 플랫 파일로 이동합니다.

Step 2 − 플랫 파일 옵션 → 새로 만들기를 마우스 오른쪽 버튼으로 클릭합니다.

파일 형식 편집기의 새 창이 열립니다.

Step 3− 파일 형식 유형을 선택합니다. 파일 형식 템플릿을 설명하는 이름을 입력합니다. Delimited 및 Fixed width 파일의 경우 Custom transfer Program을 사용하여 읽고로드 할 수 있습니다. 이 템플릿이 나타내는 파일을 설명하는 다른 속성을 입력합니다.

몇 가지 특정 파일 형식에 대해 열 속성 작업 영역의 열 구조를 지정할 수도 있습니다. 모든 속성이 정의되면Save 단추.

파일 형식 편집

파일 형식을 편집하려면 아래 단계를 따르십시오.

Step 1 − 로컬 개체 라이브러리에서 Format 탭.

Step 2− 편집 할 파일 형식을 선택합니다. 오른쪽 클릭Edit 선택권.

파일 형식 편집기에서 변경하고 Save 단추.

형식 만 작성하는 속도를 늦추는 COBOL 카피 북 파일 형식을 작성할 수 있습니다. 나중에 데이터 흐름에 형식을 추가 한 후 소스를 구성 할 수 있습니다.

파일 형식을 생성하고 동시에 데이터 파일에 연결할 수 있습니다. 아래 단계를 따르십시오.

Step 1 − 로컬 개체 라이브러리 → 파일 형식 → COBOL 카피 북으로 이동합니다.

Step 2 − 오른쪽 클릭 New 선택권.

Step 3− 형식 이름을 입력합니다. 형식 탭으로 이동 → 가져올 COBOL 카피 북을 선택하십시오. 파일의 확장자는.cpy.

Step 4 − 클릭 OK. 이 파일 형식은 로컬 개체 라이브러리에 추가됩니다. COBOL 카피 북 스키마 이름 대화 상자가 열립니다. 필요한 경우 스키마 이름을 변경하고OK.

데이터베이스 데이터 저장소를 사용하여 데이터베이스의 테이블 및 함수에서 데이터를 추출 할 수 있습니다. 메타 데이터에 대한 데이터 가져 오기를 수행 할 때Tool 열 이름, 데이터 유형, 설명 등을 편집 할 수 있습니다.

다음 개체를 편집 할 수 있습니다-

  • 테이블 이름
  • 열 이름
  • 테이블 설명
  • 열 설명
  • 열 데이터 유형
  • 열 내용 유형
  • 테이블 속성
  • 기본 키
  • 소유자 이름

메타 데이터 가져 오기

메타 데이터를 가져 오려면 아래 단계를 따르십시오.

Step 1 − Local Object Library로 이동 → 사용하려는 Datastore로 이동합니다.

Step 2 − 데이터 스토어 → 열기를 마우스 오른쪽 버튼으로 클릭합니다.

작업 공간에서 가져올 수있는 모든 항목이 표시됩니다. 메타 데이터를 가져올 항목을 선택하십시오.

개체 라이브러리에서 데이터 저장소로 이동하여 가져온 개체 목록을 확인합니다.

데이터 서비스의 파일 형식을 사용하여 Microsoft Excel 통합 문서를 데이터 원본으로 사용할 수 있습니다. Excel 통합 문서는 Windows 파일 시스템 또는 Unix 파일 시스템에서 사용할 수 있어야합니다.

Sr. 아니. 액세스 및 설명
1

In the object library, click the Formats tab.

Excel 통합 문서 형식은 Excel 통합 문서 (.xls 확장자로 표시)에 정의 된 구조를 설명합니다. Excel 데이터 범위에 대한 형식 템플릿을 개체 라이브러리에 저장합니다. 템플릿을 사용하여 데이터 흐름에서 특정 소스의 형식을 정의합니다. SAP Data Services는 Excel 통합 문서를 소스로만 액세스합니다 (대상이 아님).

오른쪽 클릭 New 옵션 및 선택 Excel Workbook 아래 스크린 샷과 같이.

XML FILE DTD, XSD에서 데이터 추출

XML 또는 DTD 스키마 파일 형식을 가져올 수도 있습니다.

Step 1 − 로컬 개체 라이브러리 → 형식 탭 → 중첩 스키마로 이동합니다.

Step 2 − 가리키는 New(DTD 파일, XML 스키마 또는 JSON 파일 형식을 선택할 수 있습니다.) 파일 형식의 이름을 입력하고 가져올 파일을 선택하십시오. 확인을 클릭하십시오.

COBOL 카피 북에서 데이터 추출

COBOL 카피 북에서 파일 형식을 가져올 수도 있습니다. 로컬 오브젝트 라이브러리 → 형식 → COBOL 카피 북으로 이동하십시오.

데이터 흐름은 소스에서 대상 시스템으로 데이터를 추출, 변환 및로드하는 데 사용됩니다. 모든 변환,로드 및 서식 지정은 데이터 흐름에서 발생합니다.

프로젝트에서 데이터 흐름을 정의하면 워크 플로 또는 ETL 작업에 추가 할 수 있습니다. 데이터 흐름은 매개 변수를 사용하여 개체 / 정보를 보내거나받을 수 있습니다. 데이터 흐름은 형식으로 명명됩니다.DF_Name.

데이터 흐름의 예

소스 시스템에있는 두 테이블의 데이터를 사용하여 DW 시스템에 팩트 테이블을로드한다고 가정 해 보겠습니다.

데이터 흐름은 다음 개체를 포함합니다-

  • 두 소스 테이블
  • 두 테이블 간 조인 및 쿼리 변환에 정의 됨
  • 대상 테이블

데이터 흐름에 추가 할 수있는 세 가지 유형의 개체가 있습니다. 그들은-

  • Source
  • Target
  • Transforms

Step 1 − 로컬 객체 라이브러리로 이동하여 두 테이블을 작업 공간으로 드래그합니다.

Step 2 − 쿼리 변환을 추가하려면 오른쪽 도구 모음에서 드래그합니다.

Step 3 − 쿼리 상자 → 새로 추가 → 새 템플릿 테이블을 마우스 오른쪽 버튼으로 클릭하여 두 테이블을 결합하고 템플릿 대상 테이블을 생성합니다.

Step 4 − 테이블을 생성 할 대상 테이블의 이름, 데이터 저장소 이름 및 소유자 (스키마 이름)를 입력합니다.

Step 5 − 대상 테이블을 앞으로 끌어서 쿼리 변환에 결합합니다.

매개 변수 전달

데이터 흐름 안팎으로 다른 매개 변수를 전달할 수도 있습니다. 데이터 흐름에 매개 변수를 전달하는 동안 데이터 흐름의 개체는 해당 매개 변수를 참조합니다. 매개 변수를 사용하여 데이터 흐름에 다른 작업을 전달할 수 있습니다.

예-마지막 업데이트에 대한 테이블에 매개 변수를 입력했다고 가정합니다. 마지막 업데이트 이후 수정 된 행만 추출 할 수 있습니다.

한 번 실행, 캐시 유형, 데이터베이스 링크, 병렬 처리 등과 같은 데이터 흐름의 속성을 변경할 수 있습니다.

Step 1 − 데이터 흐름의 속성을 변경하려면 데이터 흐름 → 속성을 마우스 오른쪽 버튼으로 클릭합니다.

데이터 흐름에 대한 다양한 속성을 설정할 수 있습니다. 속성은 다음과 같습니다.

Sr. No. 속성 및 설명
1

Execute only once

데이터 흐름이 한 번만 실행되도록 지정하면 데이터 흐름이 다시 실행되는 복구 단위 인 워크 플로에 포함 된 경우를 제외하고 데이터 흐름이 성공적으로 완료된 후 일괄 작업이 해당 데이터 흐름을 다시 실행하지 않습니다. 복구 장치 외부에서 성공적으로 완료되지 않았습니다. 상위 워크 플로가 복구 단위 인 경우 데이터 플로를 한 번만 실행으로 표시하지 않는 것이 좋습니다.

2

Use database links

데이터베이스 링크는 한 데이터베이스 서버와 다른 데이터베이스 서버 간의 통신 경로입니다. 데이터베이스 링크를 사용하면 로컬 사용자가 동일하거나 다른 데이터베이스 유형의 로컬 또는 원격 컴퓨터에있을 수있는 원격 데이터베이스의 데이터에 액세스 할 수 있습니다.

Degree of parallelism

DOP (Degree Of Parallelism)는 데이터 흐름 내의 각 변환이 데이터의 병렬 하위 집합을 처리하기 위해 복제하는 횟수를 정의하는 데이터 흐름의 속성입니다.

4

Cache type

데이터를 캐시하여 조인, 그룹, 정렬, 필터링, 조회 및 테이블 비교와 같은 작업의 성능을 향상시킬 수 있습니다. 데이터 흐름 속성 창에서 캐시 유형 옵션에 대해 다음 값 중 하나를 선택할 수 있습니다.

  • In-memory − 데이터 흐름이 사용 가능한 메모리에 맞을 수있는 소량의 데이터를 처리하는 경우이 값을 선택합니다.

  • Pageable −이 값이 기본값입니다.

Step 2 − 한 번만 실행, 병렬 처리 수준 및 캐시 유형과 같은 속성을 변경합니다.

소스 및 대상 개체

데이터 흐름은 다음 객체를 사용하여 데이터를 직접 추출하거나로드 할 수 있습니다.

  • Source objects − 소스 객체는 데이터가 추출되거나 데이터를 읽는 소스를 정의합니다.

  • Target objects − 대상 개체는 데이터를로드하거나 쓰는 대상을 정의합니다.

다음 유형의 소스 객체를 사용할 수 있으며 소스 객체에 대해 다른 액세스 방법을 사용할 수 있습니다.

관계형 데이터베이스에서 사용되는 열과 행으로 형식이 지정된 파일 직접 또는 어댑터를 통해
템플릿 테이블 생성되어 다른 데이터 흐름에 저장된 템플릿 테이블 (개발에 사용됨) 곧장
파일 구분 된 또는 고정 너비 플랫 파일 곧장
문서 애플리케이션 특정 형식의 파일 (SQL 또는 XML 구문 분석기로 읽을 수 없음) 어댑터를 통해
XML 파일 XML 태그로 형식이 지정된 파일 곧장
XML 메시지 실시간 작업의 소스로 사용 곧장

다음 Target 개체를 사용할 수 있으며 다른 액세스 방법을 적용 할 수 있습니다.

관계형 데이터베이스에서 사용되는 열과 행으로 형식이 지정된 파일 직접 또는 어댑터를 통해
템플릿 테이블 형식이 선행 변환의 출력을 기반으로하는 테이블 (개발에 사용됨) 곧장
파일 구분 된 또는 고정 너비 플랫 파일 곧장
문서 애플리케이션 특정 형식의 파일 (SQL 또는 XML 구문 분석기로 읽을 수 없음) 어댑터를 통해
XML 파일 XML 태그로 형식이 지정된 파일 곧장
XML 템플릿 파일 형식이 이전 변환 출력을 기반으로하는 XML 파일 (주로 데이터 흐름 디버깅을 위해 개발에 사용됨) 곧장

워크 플로는 실행 프로세스를 결정하는 데 사용됩니다. 워크 플로우의 주요 목적은 데이터 흐름 실행이 완료되면 데이터 흐름 실행을 준비하고 시스템 상태를 설정하는 것입니다.

ETL 프로젝트의 배치 작업은 작업에 매개 변수가 없다는 유일한 차이점을 제외하고 워크 플로우와 유사합니다.

워크 플로에 다양한 개체를 추가 할 수 있습니다. 그들은-

  • 작업 흐름
  • 데이터 흐름
  • Scripts
  • Loops
  • Conditions
  • 블록 시도 또는 캐치

워크 플로를 다른 워크 플로로 호출하거나 워크 플로가 자신을 호출 할 수도 있습니다.

Note − 워크 플로에서 단계는 왼쪽에서 오른쪽 순서로 실행됩니다.

작업 흐름의 예

업데이트 할 팩트 테이블이 있고 변환을 사용하여 데이터 흐름을 생성했다고 가정합니다. 이제 소스 시스템에서 데이터를 이동하려면 마지막 업데이트 후 추가 된 행만 추출하도록 팩트 테이블의 마지막 수정 사항을 확인해야합니다.

이를 위해서는 마지막 업데이트 날짜를 결정하는 하나의 스크립트를 생성 한 다음이를 데이터 흐름에 입력 매개 변수로 전달해야합니다.

또한 특정 팩트 테이블에 대한 데이터 연결이 활성 상태인지 확인해야합니다. 활성화되지 않은 경우이 문제에 대해 알리기 위해 관리자에게 자동으로 이메일을 보내는 catch 블록을 설정해야합니다.

워크 플로는 다음 방법을 사용하여 만들 수 있습니다-

  • 개체 라이브러리
  • 도구 팔레트

개체 라이브러리를 사용하여 워크 플로 만들기

Object Library를 사용하여 워크 플로를 생성하려면 아래 단계를 따르십시오.

Step 1 − Object Library → Workflow 탭으로 이동합니다.

Step 2 − 오른쪽 클릭 New 선택권.

Step 3 − 워크 플로의 이름을 입력합니다.

도구 팔레트를 사용하여 워크 플로우 작성

도구 팔레트를 사용하여 워크 플로우를 작성하려면 오른쪽의 아이콘을 클릭하고 작업 공간에서 워크 플로우를 끕니다.

워크 플로 속성으로 이동하여 워크 플로를 한 번만 실행하도록 설정할 수도 있습니다.

조건부

워크 플로에 조건을 추가 할 수도 있습니다. 이를 통해 워크 플로에서 If / Else / Then 논리를 구현할 수 있습니다.

Sr. 아니. 조건부 및 설명
1

If

TRUE 또는 FALSE로 평가되는 부울 식입니다. 함수, 변수 및 표준 연산자를 사용하여 식을 구성 할 수 있습니다.

2

Then

실행할 작업 흐름 요소 If 표현식은 TRUE로 평가됩니다.

Else

(선택 사항) 다음과 같은 경우 실행할 워크 플로 요소 If expression은 FALSE로 평가됩니다.

조건부를 정의하려면

Step 1 − 워크 플로로 이동 → 오른쪽 도구 팔레트에서 조건부 아이콘을 클릭합니다.

Step 2 − 조건부 이름을 두 번 클릭하여 If-Then–Else 조건부 편집기.

Step 3− 조건부를 제어하는 ​​부울 표현식을 입력합니다. 확인을 클릭하십시오.

Step 4 − 실행하려는 데이터 흐름을 끌어 Then and Else IF 조건의 식에 따라 창.

조건을 완료하면 조건을 디버그하고 유효성을 검사 할 수 있습니다.

변환은 데이터 세트를 입력으로 조작하고 하나 또는 여러 출력을 생성하는 데 사용됩니다. 데이터 서비스에서 사용할 수있는 다양한 변환이 있습니다. 변형 유형은 구입 한 버전 및 제품에 따라 다릅니다.

다음 유형의 변환을 사용할 수 있습니다-

데이터 통합

데이터 통합 ​​변환은 데이터 추출, 변환 및 DW 시스템에로드하는 데 사용됩니다. 데이터 무결성을 보장하고 개발자 생산성을 향상시킵니다.

  • Data_Generator
  • Data_Transfer
  • Effective_Date
  • Hierarchy_flattening
  • Table_Compparision 등

데이터 품질

데이터 품질 변환은 데이터 품질을 개선하는 데 사용됩니다. 소스 시스템에서 분석, 수정, 표준화, 보강 데이터 세트를 적용 할 수 있습니다.

  • Associate
  • 데이터 정리
  • DSF2 Walk Sequencer 등

플랫폼

플랫폼은 데이터 세트의 이동에 사용됩니다. 이를 사용하여 둘 이상의 데이터 소스에서 행을 생성, 매핑 및 병합 할 수 있습니다.

  • Case
  • Merge
  • 쿼리 등

텍스트 데이터 처리

텍스트 데이터 처리를 사용하면 많은 양의 텍스트 데이터를 처리 할 수 ​​있습니다.

이 장에서는 추가하는 방법을 볼 수 있습니다. Transform 데이터 흐름에.

Step 1 − Object Library → Transform 탭으로 이동합니다.

Step 2− 데이터 흐름에 추가하려는 변환을 선택합니다. 구성 선택 옵션이있는 변환을 추가하면 프롬프트가 열립니다.

Step 3 − 데이터 흐름 연결을 그려 소스를 변환에 연결합니다.

Step 4 − 변환 이름을 더블 클릭하여 변환 편집기를 엽니 다.

정의가 완료되면 OK 편집기를 닫습니다.

이것은 데이터 서비스에서 사용되는 가장 일반적인 변환이며 다음 기능을 수행 할 수 있습니다.

  • 소스에서 데이터 필터링
  • 여러 소스의 데이터 결합
  • 데이터에 대한 기능 및 변환 수행
  • 입력에서 출력 스키마로의 열 매핑
  • 기본 키 할당
  • 출력 스키마에 생성 된 새 열, 스키마 및 함수 추가

쿼리 변환이 가장 일반적으로 사용되는 변환이므로 도구 팔레트에서이 쿼리에 대한 바로 가기가 제공됩니다.

쿼리 변환을 추가하려면 아래 단계를 따르십시오.

Step 1− 쿼리 변환 도구 팔레트를 클릭합니다. 데이터 흐름 작업 영역의 아무 곳이나 클릭합니다. 이것을 입력 및 출력에 연결하십시오.

쿼리 변환 아이콘을 두 번 클릭하면 쿼리 작업을 수행하는 데 사용되는 쿼리 편집기가 열립니다.

다음 영역은 쿼리 변환에 있습니다-

  • 입력 스키마
  • 출력 스키마
  • Parameters

입력 및 출력 스키마에는 열, 중첩 스키마 및 함수가 포함됩니다. 스키마 입력 및 스키마 출력은 변환에서 현재 선택된 스키마를 표시합니다.

출력 스키마를 변경하려면 목록에서 스키마를 선택하고 마우스 오른쪽 버튼을 클릭 한 다음 현재로 만들기를 선택합니다.

데이터 품질 변환

데이터 품질 변환은 중첩 테이블을 포함하는 업스트림 변환에 직접 연결할 수 없습니다. 이러한 변환을 연결하려면 중첩 테이블의 변환과 데이터 품질 변환 사이에 쿼리 변환 또는 XML 파이프 라인 변환을 추가해야합니다.

데이터 품질 변환을 사용하는 방법?

Step 1 − Object Library → Transform 탭으로 이동

Step 2 − 데이터 품질 변환을 확장하고 데이터 흐름에 추가하려는 변환 또는 변환 구성을 추가합니다.

Step 3− 데이터 흐름 연결을 그립니다. 변환 이름을 두 번 클릭하면 변환 편집기가 열립니다. 입력 스키마에서 매핑 할 입력 필드를 선택합니다.

Note − Associate Transform을 사용하려면 입력 탭에 사용자 정의 필드를 추가 할 수 있습니다.

텍스트 데이터 처리 변환

텍스트 데이터 처리 변환을 사용하면 많은 양의 텍스트에서 특정 정보를 추출 할 수 있습니다. 조직에 특정한 고객, 제품 및 재무 정보와 같은 사실 및 엔티티를 검색 할 수 있습니다.

이 변환은 또한 엔티티 간의 관계를 확인하고 추출을 허용합니다. 텍스트 데이터 처리를 사용하여 추출 된 데이터는 비즈니스 인텔리전스,보고, 쿼리 및 분석에서 사용할 수 있습니다.

항목 추출 변환

데이터 서비스에서 텍스트 데이터 처리는 구조화되지 않은 데이터에서 엔터티와 사실을 추출하는 엔터티 추출을 사용하여 수행됩니다.

여기에는 대량의 텍스트 데이터를 분석 및 처리하고, 엔티티를 검색하고, 적절한 유형에 할당하고, 메타 데이터를 표준 형식으로 표시하는 작업이 포함됩니다.

엔티티 추출 변환은 텍스트, HTML, XML 또는 특정 이진 형식 (예 : PDF) 컨텐츠에서 정보를 추출하고 구조화 된 출력을 생성 할 수 있습니다. 작업 흐름에 따라 여러 가지 방법으로 출력을 사용할 수 있습니다. 다른 변환에 대한 입력으로 사용하거나 데이터베이스 테이블 또는 플랫 파일과 같은 여러 출력 소스에 쓸 수 있습니다. 출력은 UTF-16 인코딩으로 생성됩니다.

Entity Extract Transform can be used in the following scenarios −

  • 많은 양의 텍스트에서 특정 정보를 찾습니다.

  • 기존 정보와 함께 구조화되지 않은 텍스트에서 구조화 된 정보를 찾아 새로운 연결을 만듭니다.

  • 제품 품질에 대한보고 및 분석.

TDP와 데이터 정리의 차이점

텍스트 데이터 처리는 구조화되지 않은 텍스트 데이터에서 관련 정보를 찾는 데 사용됩니다. 그러나 데이터 정리는 구조화 된 데이터를 표준화하고 정리하는 데 사용됩니다.

매개 변수 텍스트 데이터 처리 데이터 정리
입력 유형 비정형 데이터 구조화 된 데이터
입력 크기 5KB 이상 5KB 미만
입력 범위 다양한 변형이있는 광범위한 도메인 제한된 변형
잠재적 인 사용 구조화되지 않은 데이터의 잠재적 인 의미있는 정보 저장소에 저장하기위한 데이터 품질
산출 엔티티, 유형 등의 형태로 주석을 생성합니다. 입력은 변경되지 않습니다. 표준화 된 필드 만들기, 입력이 변경됨

데이터 서비스 관리에는 실시간 및 배치 작업 생성, 작업 예약, 내장 된 데이터 흐름, 변수 및 매개 변수, 복구 메커니즘, 데이터 프로파일 링, 성능 튜닝 등이 포함됩니다.

실시간 작업

데이터 서비스 디자이너에서 실시간 메시지를 처리하는 실시간 작업을 만들 수 있습니다. 일괄 작업과 마찬가지로 실시간 작업은 데이터를 추출하고 변환하고로드합니다.

각 실시간 작업은 단일 메시지에서 데이터를 추출 할 수 있습니다. 테이블이나 파일과 같은 다른 소스에서 데이터를 추출 할 수도 있습니다.

실시간 작업은 일괄 작업과 달리 트리거의 도움으로 실행되지 않습니다. 관리자가 실시간 서비스로 실행합니다. 실시간 서비스는 액세스 서버의 메시지를 기다립니다. 액세스 서버는이 메시지를 수신하여 메시지 유형을 처리하도록 구성된 실시간 서비스에 전달합니다. 실시간 서비스는 메시지를 실행하고 결과를 반환하며 실행 중지 명령을받을 때까지 메시지를 계속 처리합니다.

실시간 vs 배치 작업

분기 및 제어 논리와 같은 변환은 실시간 작업에서 더 자주 사용되며 디자이너의 배치 작업에서는 그렇지 않습니다.

실시간 작업은 일괄 작업과 달리 일정이나 내부 트리거에 따라 실행되지 않습니다.

실시간 작업 생성

데이터 흐름, 워크 플로, 루프, 조건부, 스크립트 등과 같은 동일한 개체를 사용하여 실시간 작업을 생성 할 수 있습니다.

실시간 작업을 생성하기 위해 다음 데이터 모델을 사용할 수 있습니다-

  • 단일 데이터 흐름 모델
  • 다중 데이터 흐름 모델

단일 데이터 흐름 모델

실시간 처리 루프에서 단일 데이터 흐름으로 실시간 작업을 만들 수 있으며 여기에는 단일 메시지 소스와 단일 메시지 대상이 포함됩니다.

Creating Real Time job using single data model −

단일 데이터 모델을 사용하여 실시간 작업을 생성하려면 주어진 단계를 따르십시오.

Step 1 − 데이터 서비스 디자이너 → 프로젝트 새로 만들기 → 프로젝트 → 프로젝트 이름 입력으로 이동합니다.

Step 2 − 프로젝트 영역 → 새 실시간 작업의 공백을 마우스 오른쪽 버튼으로 클릭합니다.

작업 공간은 실시간 작업의 두 가지 구성 요소를 보여줍니다-

  • RT_Process_begins
  • Step_ends

실시간 작업의 시작과 끝을 보여줍니다.

Step 3 − 단일 데이터 흐름으로 실시간 작업을 생성하려면 오른쪽 창의 도구 팔레트에서 데이터 흐름을 선택하고 작업 공간으로 끌어옵니다.

루프 내부를 클릭하면 실시간 처리 루프에서 하나의 메시지 소스와 하나의 메시지 대상을 사용할 수 있습니다. 시작 및 끝 표시를 데이터 흐름에 연결합니다.

Step 4 − 필요에 따라 데이터 흐름에 구성 개체를 추가하고 작업을 저장합니다.

다중 데이터 흐름 모델

이를 통해 실시간 처리 루프에서 여러 데이터 흐름이있는 실시간 작업을 만들 수 있습니다. 또한 다음 메시지로 이동하기 전에 각 데이터 모델의 데이터가 완전히 처리되었는지 확인해야합니다.

실시간 작업 테스트

샘플 메시지를 파일에서 소스 메시지로 전달하여 실시간 작업을 테스트 할 수 있습니다. 데이터 서비스가 예상 대상 메시지를 생성하는지 확인할 수 있습니다.

작업이 예상 된 결과를 제공하는지 확인하려면 데이터보기 모드에서 작업을 실행할 수 있습니다. 이 모드를 사용하면 출력 데이터를 캡처하여 실시간 작업이 제대로 작동하는지 확인할 수 있습니다.

임베디드 데이터 흐름

포함 된 데이터 흐름을 데이터 흐름이라고하며 디자인의 다른 데이터 흐름에서 호출됩니다. 포함 된 데이터 흐름에는 여러 소스 및 대상이 포함될 수 있지만 하나의 입력 또는 출력 만 데이터를 기본 데이터 흐름으로 전달합니다.

다음 유형의 임베디드 데이터 흐름을 사용할 수 있습니다.

  • One Input − 데이터 흐름의 끝에 포함 된 데이터 흐름이 추가됩니다.

  • One Output − 포함 된 데이터 흐름은 데이터 흐름의 시작 부분에 추가됩니다.

  • No input or output − 기존 데이터 흐름을 복제합니다.

임베디드 데이터 흐름은 다음과 같은 목적으로 사용될 수 있습니다.

  • 데이터 흐름 표시를 단순화합니다.

  • 흐름 논리를 저장하고 다른 데이터 흐름에서 다시 사용하려는 경우.

  • 디버깅의 경우 데이터 흐름 섹션을 포함 된 데이터 흐름으로 만들고 별도로 실행합니다.

기존 데이터 흐름에서 개체를 선택할 수 있습니다. 포함 된 데이터 흐름을 만들 수있는 방법에는 두 가지가 있습니다.

옵션 1

개체를 마우스 오른쪽 단추로 클릭하고 포함 된 데이터 흐름을 선택합니다.

옵션 2

전체 데이터 흐름을 끌어 개체 라이브러리에서 작업 공간의 열린 데이터 흐름으로 유효성을 검사합니다. 다음으로 생성 된 데이터 흐름을 엽니 다. 입력 및 출력 포트로 사용할 개체를 선택하고make port 그 개체에 대해.

데이터 서비스는 해당 개체를 포함 된 데이터 흐름의 연결 지점으로 추가합니다.

변수 및 매개 변수

데이터 흐름 및 작업 흐름과 함께 로컬 및 전역 변수를 사용하여 작업을 더 유연하게 설계 할 수 있습니다.

주요 기능은-

  • 변수의 데이터 유형은 숫자, 정수, 10 진수, 날짜 또는 문자와 같은 텍스트 문자열이 될 수 있습니다.

  • 변수는 데이터 흐름 및 워크 플로에서 함수로 사용할 수 있습니다. Where 절.

  • 데이터 서비스의 지역 변수는 생성 된 객체로 제한됩니다.

  • 전역 변수는 생성 된 작업으로 제한됩니다. 전역 변수를 사용하여 런타임에 기본 전역 변수의 값을 변경할 수 있습니다.

  • 워크 플로 및 데이터 흐름에서 사용되는 식은 parameters.

  • 워크 플로우 및 데이터 플로우의 모든 변수 및 매개 변수가 변수 및 매개 변수 창에 표시됩니다.

변수와 매개 변수를 보려면 아래 단계를 따르십시오.

도구 → 변수로 이동합니다.

새 창 Variables and parameters가 표시됩니다. 정의와 호출이라는 두 개의 탭이 있습니다.

그만큼 Definitions탭에서는 변수와 매개 변수를 만들고 볼 수 있습니다. 작업 흐름 및 데이터 흐름 수준에서 로컬 변수와 매개 변수를 사용할 수 있습니다. 전역 변수는 작업 수준에서 사용할 수 있습니다.

지역 변수

전역 변수

작업의 스크립트 또는 조건부

작업의 모든 개체

작업 흐름

지역 변수

매개 변수

이 워크 플로우는 매개 변수를 사용하여 다른 워크 플로우 또는 데이터 플로우로 전달됩니다.

지역 변수를 전달할 부모 개체. 워크 플로는 변수 나 매개 변수를 부모 개체로 반환 할 수도 있습니다.

데이터 흐름

매개 변수

데이터 흐름의 WHERE 절, 열 매핑 또는 함수입니다. 데이터 흐름. 데이터 흐름은 출력 값을 반환 할 수 없습니다.

호출 탭에서 상위 개체의 정의에있는 모든 개체에 대해 정의 된 매개 변수의 이름을 볼 수 있습니다.

지역 변수 정의

로컬 변수를 정의하려면 실시간 작업을 엽니 다.

Step 1− 도구 → 변수로 이동합니다. 새로운Variables and Parameters 창이 열립니다.

Step 2 − 변수로 이동 → 오른쪽 클릭 → 삽입

새 매개 변수를 생성합니다. $NewVariable0.

Step 3− 새 변수의 이름을 입력합니다. 목록에서 데이터 유형을 선택하십시오.

정의되면 창을 닫습니다. 비슷한 방식으로 데이터 흐름 및 워크 플로에 대한 매개 변수를 정의 할 수 있습니다.

작업이 성공적으로 실행되지 않은 경우 오류를 수정하고 작업을 다시 실행해야합니다. 작업이 실패한 경우 일부 테이블이로드, 변경 또는 부분적으로로드되었을 가능성이 있습니다. 모든 데이터를 가져오고 중복되거나 누락 된 데이터를 제거하려면 작업을 다시 실행해야합니다.

복구에 사용할 수있는 두 가지 기술은 다음과 같습니다.

  • Automatic Recovery −이를 통해 복구 모드에서 실패한 작업을 실행할 수 있습니다.

  • Manually Recovery − 이전에 부분 재실행을 고려하지 않고 작업을 재실행 할 수 있습니다.

To run a job with Recovery option enabled in Designer

Step 1 − 작업 이름을 마우스 오른쪽 버튼으로 클릭 → 실행.

Step 2 − 모든 변경 사항을 저장하고 실행 → 예.

Step 3− 실행 탭 → 복구 활성화 확인란으로 이동합니다. 이 상자를 선택하지 않으면 실패 할 경우 데이터 서비스에서 작업을 복구하지 않습니다.

To run a job in Recovery mode from Designer

Step 1− 마우스 오른쪽 버튼을 클릭하고 위와 같이 작업을 실행합니다. 변경 사항을 저장하다.

Step 2− 실행 옵션으로 이동합니다. 당신은 옵션이Recover from last failed execution 상자가 선택되어 있습니다.

Note− 작업이 아직 실행되지 않은 경우이 옵션은 활성화되지 않습니다. 이를 실패한 작업의 자동 복구라고합니다.

데이터 서비스 디자이너는 데이터 프로파일 링 기능을 제공하여 원본 데이터의 품질과 구조를 보장하고 개선합니다.

데이터 프로파일 러를 사용하면 다음을 수행 할 수 있습니다.

  • 소스 데이터, 검증 및 수정 조치, 소스 데이터의 품질에서 이상을 찾습니다.

  • 작업, 워크 플로 및 데이터 흐름의 더 나은 실행을 위해 소스 데이터의 구조와 관계를 정의합니다.

  • 작업이 예상 된 결과를 반환하는지 확인하려면 소스 및 대상 시스템의 내용을 찾습니다.

데이터 프로파일 러는 프로파일 러 서버 실행에 대한 다음 정보를 제공합니다.

컬럼 분석

  • Basic Profiling − 최소, 최대, 평균 등과 같은 정보를 포함합니다.

  • Detailed Profiling − 고유 개수, 고유 비율, 중앙값 등과 같은 정보를 포함합니다.

관계 분석

  • 관계를 정의하는 두 열 간의 데이터 이상입니다.

데이터 프로파일 링 기능은 다음 데이터 소스의 데이터에 사용할 수 있습니다.

  • SQL 서버
  • Oracle
  • DB2
  • Attunity 커넥터
  • Sybase IQ
  • Teradata

프로파일 러 서버에 연결

프로필 서버에 연결하려면-

Step 1 − 도구 → 프로파일 러 서버 로그인으로 이동합니다.

Step 2 − 시스템, 사용자 이름, 암호 및 인증과 같은 세부 정보를 입력합니다.

Step 3 − 클릭 Log on 단추.

연결되면 프로파일 러 저장소 목록이 표시됩니다. 고르다Repository 클릭 Connect.

ETL 작업의 성능은 데이터 서비스 소프트웨어를 사용하는 시스템, 이동 횟수 등에 따라 다릅니다.

ETL 태스크의 성능에 기여하는 다양한 기타 요인이 있습니다. 그들은-

  • Source Data Base − 소스 데이터베이스는 다음을 수행하도록 설정되어야합니다. Select빠른 진술. 이는 데이터베이스 I / O의 크기를 늘리고, 더 많은 데이터를 캐시하기 위해 공유 버퍼의 크기를 늘리고, 작은 테이블에 대한 병렬을 허용하지 않음으로써 수행 할 수 있습니다.

  • Source Operating System− 소스 운영 체제는 디스크에서 데이터를 빠르게 읽을 수 있도록 구성되어야합니다. 미리 읽기 프로토콜을 64KB로 설정합니다.

  • Target Database − 대상 데이터베이스는 수행하도록 구성되어야합니다. INSERTUPDATE빨리. 이것은-

    • 아카이브 로깅을 비활성화합니다.
    • 모든 테이블에 대해 Redo 로깅을 비활성화합니다.
    • 공유 버퍼의 크기 최대화.
  • Target Operating System− 데이터를 디스크에 빠르게 기록하려면 대상 운영 체제를 구성해야합니다. 비동기 I / O를 켜서 입력 / 출력 작업을 최대한 빠르게 할 수 있습니다.

  • Network − 네트워크 대역폭은 소스에서 대상 시스템으로 데이터를 전송하기에 충분해야합니다.

  • BODS Repository Database − BODS 작업의 성능을 향상시키기 위해 다음을 수행 할 수 있습니다. −

    • Monitor Sample Rate − ETL 작업에서 많은 양의 데이터 세트를 처리하는 경우 샘플 속도를 더 높은 값으로 모니터링하여 로그 파일에 대한 I / O 호출 수를 줄여 성능을 향상시킵니다.

    • 바이러스 검사가 작업 서버에 구성된 경우 성능 저하를 유발할 수 있으므로 바이러스 검사에서 데이터 서비스 로그를 제외 할 수도 있습니다.

  • Job Server OS − 데이터 서비스에서 한 작업의 하나의 데이터 흐름이 ‘al_engine’프로세스는 4 개의 스레드를 시작합니다. 최대 성능을 위해 하나를 실행하는 디자인을 고려하십시오.‘al_engine’한 번에 CPU 당 프로세스. 작업 서버 OS는 모든 스레드가 사용 가능한 모든 CPU에 분산되도록 조정되어야합니다.

SAP BO 데이터 서비스는 각 사용자가 자신의 로컬 저장소에있는 애플리케이션에서 작업 할 수있는 다중 사용자 개발을 지원합니다. 각 팀은 중앙 저장소를 사용하여 응용 프로그램의 기본 복사본과 응용 프로그램의 모든 개체 버전을 저장합니다.

주요 기능은-

  • SAP Data Services에서 애플리케이션의 팀 사본을 저장하기위한 중앙 리포지토리를 생성 할 수 있습니다. 여기에는 로컬 저장소에서도 사용할 수있는 모든 정보가 포함되어 있습니다. 그러나 개체 정보에 대한 저장 위치 만 제공합니다. 변경하려면 로컬 저장소에서 작업해야합니다.

  • 중앙 저장소에서 로컬 저장소로 개체를 복사 할 수 있습니다. 그러나 변경해야하는 경우 중앙 저장소에서 해당 개체를 체크 아웃해야합니다. 이로 인해 다른 사용자는 중앙 저장소에서 해당 개체를 체크 아웃 할 수 없으므로 동일한 개체를 변경할 수 없습니다.

  • 개체를 변경 한 후에는 개체를 체크인해야합니다. 데이터 서비스에서 수정 된 새 개체를 중앙 저장소에 저장할 수 있습니다.

  • 데이터 서비스를 사용하면 로컬 저장소가있는 여러 사용자가 동시에 중앙 저장소에 연결할 수 있지만 한 명의 사용자 만 체크 아웃하여 특정 개체를 변경할 수 있습니다.

  • 중앙 저장소는 또한 각 개체의 기록을 유지합니다. 필요에 따라 변경되지 않은 경우 개체의 이전 버전으로 되돌릴 수 있습니다.

여러 사용자

SAP BO 데이터 서비스를 사용하면 여러 사용자가 동시에 동일한 애플리케이션에서 작업 할 수 있습니다. 다중 사용자 환경에서는 다음 용어를 고려해야합니다.

Sr. 아니. 다중 사용자 및 설명
1

Highest level object

최상위 수준 개체는 개체 계층 구조의 개체에 종속되지 않는 개체입니다. 예를 들어 작업 1이 작업 흐름 1과 데이터 흐름 1로 구성된 경우 작업 1이 가장 높은 수준의 개체입니다.

2

Object dependents

개체 종속은 계층 구조에서 가장 높은 수준의 개체 아래에 연결된 개체입니다. 예를 들어 작업 1이 데이터 흐름 1을 포함하는 작업 흐름 1로 구성되어있는 경우 작업 흐름 1과 데이터 흐름 1은 모두 작업 1에 종속됩니다. 또한 데이터 흐름 1은 작업 흐름 1에 종속됩니다.

Object version

객체 버전은 객체의 인스턴스입니다. 개체를 중앙 저장소에 추가하거나 체크인 할 때마다 소프트웨어는 개체의 새 버전을 만듭니다. 객체의 최신 버전은 생성 된 마지막 또는 가장 최근 버전입니다.

다중 사용자 환경에서 로컬 저장소를 업데이트하려면 중앙 저장소에서 각 개체의 최신 사본을 가져올 수 있습니다. 개체를 편집하려면 체크 아웃 및 체크인 옵션을 사용할 수 있습니다.

보안을 위해 중앙 저장소에 적용 할 수있는 다양한 보안 매개 변수가 있습니다.

다양한 보안 매개 변수는-

  • Authentication − 인증 된 사용자 만 중앙 저장소에 로그인 할 수 있습니다.

  • Authorization −이를 통해 사용자는 각 개체에 대해 서로 다른 수준의 권한을 할당 할 수 있습니다.

  • Auditing− 이것은 개체에 대한 모든 변경 내역을 유지하는 데 사용됩니다. 모든 이전 버전을 확인하고 이전 버전으로 되돌릴 수 있습니다.

비보안 중앙 저장소 생성

다중 사용자 개발 환경에서는 항상 중앙 저장소 방식으로 작업하는 것이 좋습니다.

비보안 중앙 저장소를 만들려면 주어진 단계를 따르십시오-

Step 1 − 중앙 저장소 역할을 할 데이터베이스 관리 시스템을 사용하여 데이터베이스를 생성합니다.

Step 2 − 리포지토리 관리자로 이동합니다.

Step 3− 리포지토리 유형을 중앙으로 선택합니다. 사용자 이름 및 암호와 같은 데이터베이스 세부 정보를 입력하고Create.

Step 4 − 중앙 저장소에 대한 연결을 정의하려면, Tools → Central Repository.

Step 5 − Central Repository 연결에서 Repository를 선택하고 Add 상.

Step 6 − 중앙 저장소의 비밀번호를 입력하고 Activate 단추.

보안 중앙 저장소 생성

보안 중앙 리포지토리를 생성하려면 리포지토리 관리자로 이동합니다. 저장소 유형을 중앙으로 선택하십시오. 클릭Enable Security 확인란.

다중 사용자 환경에서 성공적인 개발을 위해서는 체크인 및 체크 아웃과 같은 일부 프로세스를 구현하는 것이 좋습니다.

다중 사용자 환경에서 다음 프로세스를 사용할 수 있습니다.

  • Filtering
  • 개체 체크 아웃
  • 체크 아웃 취소
  • 개체 체크인
  • 개체에 레이블 지정

필터링은 개체를 추가, 체크인, 체크 아웃 및 중앙 저장소에 레이블을 지정할 때 적용 할 수 있습니다.

다중 사용자 작업 마이그레이션

SAP Data Services에서 작업 마이그레이션은 애플리케이션 수준, 리포지토리 수준, 업그레이드 수준 등 다양한 수준에서 적용 할 수 있습니다.

한 중앙 저장소의 컨텐츠를 다른 중앙 저장소로 직접 복사 할 수 없습니다. 로컬 저장소를 사용해야합니다.

첫 번째 단계는 중앙 저장소에서 로컬 저장소로 모든 개체의 최신 버전을 가져 오는 것입니다. 컨텐츠를 복사 할 중앙 저장소를 활성화하십시오. 로컬 저장소에서 복사 할 모든 개체를 중앙 저장소에 추가합니다.

중앙 저장소 마이그레이션

SAP Data Services 버전을 업데이트하는 경우 Repository 버전도 업데이트해야합니다.

버전을 업그레이드하기 위해 중앙 저장소를 마이그레이션 할 때 다음 사항을 고려해야합니다.

  • 모든 테이블과 개체의 중앙 저장소를 백업합니다.

  • 데이터 서비스에서 객체 버전을 유지하려면 각 버전에 대한 중앙 저장소를 유지해야합니다. 새 버전의 데이터 서비스 소프트웨어로 새 중앙 기록을 만들고 모든 개체를이 저장소에 복사합니다.

  • 새 버전의 데이터 서비스를 설치하는 경우 항상 권장되며 중앙 저장소를 새 버전의 개체로 업그레이드해야합니다.

  • 중앙 저장소와 로컬 저장소의 다른 버전이 동시에 작동하지 않을 수 있으므로 로컬 저장소를 동일한 버전으로 업그레이드하십시오.

  • 중앙 저장소를 마이그레이션하기 전에 모든 개체를 체크인하십시오. 중앙 및 로컬 저장소를 동시에 업그레이드하지 않으므로 모든 개체를 체크인해야합니다. 중앙 저장소를 최신 버전으로 업그레이드하면 이전 버전의 데이터 서비스가있는 로컬 저장소에서 개체를 체크인 할 수 없습니다.