본문 바로가기

SAP 사용자들의 오픈 커뮤니티

SAP S/4HANA

SAP 고객 데이터 클라우드-구성품 안내

페이지 정보

본문

데이터 소스

데이터 소스 구성 요소는 데이터 플랫폼에서 데이터를 추출하거나 데이터를 업로드하는 작업을 수행합니다.

  • datasource.read 구성 요소는 플랫폼에서 데이터를 추출합니다. 모든 데이터 흐름은 이러한 구성 요소 중 하나에서 시작됩니다. FTP, Azure, Amazon 등에서 파일을 읽는 구성 요소의 경우 이 파일의 최대 크기는 2GB입니다.
  • datasource.write 구성 요소는 대상 플랫폼에 데이터를 업로드합니다. 이는 일반적으로 데이터 흐름의 마지막 단계입니다. 기록기 뒤에는 실패한 레코드를 캡처하는 "오류" 커넥터가 올 수 있습니다.
  • datasource.lookup 구성요소는 다른 데이터 소스의 필드를 기반으로 플랫폼에서 데이터를 추출합니다.
  • datasource.delete 구성 요소는 대상 플랫폼에서 정보(예: 사용자 레코드)를 삭제합니다.

메모

쓸 수 있는 최대 파일 크기는 5GB이며 작업당 총 최대 크기는 50GB입니다.

총 파일 크기가 50GB를 초과하는 경우 다음 중 하나를 수행하여 수정할 수 있습니다(제한된 제안 목록임).

  • Datasource.read.gigya.account 구성요소에서 maxConcurrency 값을 줄이십시오 .
  • file.format.json 구성 요소에서 maxFileSize 값을 줄 입니다.
  • 관련 이전 단계에서 where 매개변수를 사용하여 작업을 더 작은 작업으로 분할합니다 .

주의

IdentitySync 작업은 UTC 시간으로 예약됩니다. 따라서 파일 요청이 제대로 처리되도록 흐름에 참여하는 플랫폼을 UTC 시간대로 설정해야 합니다.

 

 

댓글목록

profile_image

KSUG님의 댓글

no_profile KSUG 쪽지보내기 아이디로 검색 전체게시물 작성일 10

잘 읽었습니다.

profile_image

최정아님의 댓글

no_profile 최정아 쪽지보내기 아이디로 검색 전체게시물 작성일 2

좋은게시글입니다

이용약관
개인정보처리방침