본문 바로가기

SAP 사용자들의 오픈 커뮤니티

SAP S/4HANA

SAP 고객 데이터 클라우드-오류 처리

페이지 정보

본문

Dataflows에는 실패한 레코드를 분리하고 파일에 기록하여 검토 및 처리하고 흐름에 다시 피드백할 수 있는 기본 제공 기능이 포함되어 있습니다.

자세한 지침은 아래의 구현 흐름을 따르십시오( 데이터 흐름 편집 아래 ). 실패한 레코드를 SFTP에 쓰는 흐름의 코드 샘플은 구성 요소 저장소 를 참조하십시오 .

주의

 

Dataflow 작업은 UTC 시간으로 예약됩니다. 따라서 파일 요청이 제대로 처리되도록 흐름에 참여하는 플랫폼을 UTC 시간대로 설정해야 합니다.

데이터 흐름을 기반으로 통합을 만들려면 다음 프로세스를 완료하세요.

감사

모든 'idx' API는 감사 로그 에서 감사되며 audit.search 를 사용하여 검색 할 수 있습니다. 그런 다음 idx.search 를 사용하여 관련 작업, 일정, 데이터 흐름 등에 대한 전체 세부 정보를 얻을 수 있습니다.

제한

각 파트너가 실행할 수 있는 데이터 흐름의 양과 빈도에 특정 제한이 적용됩니다. 기본적으로 다음과 같습니다.

  • 최대 허용 데이터 흐름 수: 5
  • 예약된 데이터 흐름의 최대 허용 수: 5
  • 빈도: 데이터 흐름을 설정할 수 있는 가장 작은 빈도, 즉 해당 흐름에 대한 각 일정 사이에 통과해야 하는 최소 시간입니다. 기본값은 10분입니다.
  • 전체 추출 빈도: "전체 추출" 데이터 흐름을 설정할 수 있는 가장 작은 빈도, 즉 해당 흐름에 대한 각 일정 사이에 통과해야 하는 최소 시간입니다. "Pull all records" 확인란이 플래그가 지정된 흐름입니다. 기본값: 7일.
  • 전체 추출 예약된 흐름의 최대 허용 수: 2

IP 허용 목록

네트워킹 정책에 따라 Dataflows가 정보를 업로드/가져오도록 허용하기 위해 Dataflows 서버의 IP를 허용 목록에 추가해야 할 수 있습니다.

SAP Customer Data Cloud IP 의 전체 목록은 여기 에 나열되어 있습니다 . Dataflows는 'NAT IP' 아래에 나열된 IP를 사용합니다.

댓글목록

profile_image

양광진님의 댓글

no_profile 양광진 쪽지보내기 아이디로 검색 전체게시물 작성일 2

자세한글 감사드립니다.

이용약관
개인정보처리방침