tencent cloud

Cloud Object Storage

동향 및 공지
릴리스 노트
제품 공지
제품 소개
제품 개요
기능 개요
적용 시나리오
제품 장점
기본 개념
리전 및 액세스 도메인
규격 및 제한
제품 요금
과금 개요
과금 방식
과금 항목
프리 티어
과금 예시
청구서 보기 및 다운로드
연체 안내
FAQ
빠른 시작
콘솔 시작하기
COSBrowser 시작하기
사용자 가이드
요청 생성
버킷
객체
데이터 관리
일괄 프로세스
글로벌 가속
모니터링 및 알람
운영 센터
데이터 처리
스마트 툴 박스 사용 가이드
데이터 워크플로
애플리케이션 통합
툴 가이드
툴 개요
환경 설치 및 설정
COSBrowser 툴
COSCLI 툴
COSCMD 툴
COS Migration 툴
FTP Server 툴
Hadoop 툴
COSDistCp 툴
HDFS TO COS 툴
온라인 도구 (Onrain Dogu)
자가 진단 도구
실습 튜토리얼
개요
액세스 제어 및 권한 관리
성능 최적화
AWS S3 SDK를 사용하여 COS에 액세스하기
데이터 재해 복구 백업
도메인 관리 사례
이미지 처리 사례
COS 오디오/비디오 플레이어 사례
데이터 다이렉트 업로드
데이터 보안
데이터 검증
빅 데이터 사례
COS 비용 최적화 솔루션
3rd party 애플리케이션에서 COS 사용
마이그레이션 가이드
로컬 데이터 COS로 마이그레이션
타사 클라우드 스토리지 데이터를 COS로 마이그레이션
URL이 소스 주소인 데이터를 COS로 마이그레이션
COS 간 데이터 마이그레이션
Hadoop 파일 시스템과 COS 간 데이터 마이그레이션
데이터 레이크 스토리지
클라우드 네이티브 데이터 레이크
메타데이터 가속
데이터 레이크 가속기 GooseFS
데이터 처리
데이터 처리 개요
이미지 처리
미디어 처리
콘텐츠 조정
파일 처리
문서 미리보기
장애 처리
RequestId 가져오기
공용 네트워크로 COS에 파일 업로드 시 속도가 느린 문제
COS 액세스 시 403 에러 코드 반환
리소스 액세스 오류
POST Object 자주 발생하는 오류
보안 및 컴플라이언스
데이터 재해 복구
데이터 보안
액세스 관리
자주 묻는 질문
인기 질문
일반 문제
과금
도메인 규정 준수 문제
버킷 설정 문제
도메인 및 CDN 문제
파일 작업 문제
로그 모니터링 문제
권한 관리
데이터 처리 문제
데이터 보안 문제
사전 서명 URL 관련 문제
SDK FAQ
툴 관련 문제
API 관련 문제
Agreements
Service Level Agreement
개인 정보 보호 정책
데이터 처리 및 보안 계약
연락처
용어집

메타데이터 가속 버킷 마운트

PDF
포커스 모드
폰트 크기
마지막 업데이트 시간: 2025-12-22 16:17:40
메타데이터 가속 기능을 활성화한 후 COS는 메타데이터 가속 버킷에 대한 마운트 포인트를 생성합니다. HDFS 클라이언트를 다운로드하여 클라이언트에 버킷 정보를 입력함으로써 메타데이터 가속 버킷을 마운트할 수 있습니다. 본 문서는 컴퓨팅 클러스터에서 메타데이터 가속이 활성화된 버킷을 마운트하여 HDFS를 사용해 액세스하는 방법을 상세히 소개합니다.

클라이언트 소개

HDFS를 사용하여 COS에 액세스하려면 Hadoop 클라이언트(HDFS 시맨틱 구현용) 및 COS api 클라이언트(COS 버킷 액세스용) 두 가지 클라이언트가 필요합니다. 메타데이터 가속 버킷은 Hadoop-COS(scheme으로 COSN 사용, COSN 클라이언트라고도 함) 및 chdfs-hadoop-plugin(scheme으로 OFS 사용, OFS 클라이언트라고도 함) 두 가지 Hadoop 클라이언트와 호환됩니다.
COSN 클라이언트를 사용할 경우 HEAD Bucket을 요청하여 버킷 유형이 메타데이터 가속 버킷인지 먼저 확인한 후, 요청을 OFS 클라이언트로 전달하여 처리합니다. 따라서 일반 COS 버킷 시나리오와 호환되지 않는 경우 보다 원활한 경험을 위해 OFS 클라이언트 사용을 권장합니다.

설명:
일반 COS 버킷의 COSN 사용 설명은 Hadoop 도구 설명을 참고하십시오.

환경 종속성

각 클라이언트의 환경 종속성 설명은 다음과 같습니다.
OFS 클라이언트 사용
COSN 클라이언트 사용
OFS 클라이언트 사용 시 chdfs hadoop jar 패키지만 다운로드하면 됩니다.
다운로드 주소: chdfs-hadoop-plugin
버전 요구 사항: 2.7 버전 이상
설명:
OFS 클라이언트는 cos api 클라이언트를 자동으로 가져오므로 설치가 필요 없습니다. 마운트가 성공한 후 fs.ofs.tmp.cache.dir로 구성된 디렉터리에서 해당 JAR 패키지 및 버전을 확인할 수 있습니다.
COSN 클라이언트 사용 시 Hadoop-COS(COSN) jar 패키지, chdfs-hadoop-plugin(OFS) jar 패키지, cos_api-bundle jar 패키지를 다운로드해야 합니다.
Hadoop-COS(COSN)
다운로드 주소: COSN(hadoop-cos)
버전 요구 사항: 8.1.5 버전 이상
chdfs-hadoop-plugin(OFS)
다운로드 주소: chdfs-hadoop-plugin
버전 요구 사항: 2.7 버전 이상
cos_api-bundle
다운로드 주소: cos_api-bundle
버전 요구 사항: COSN 버전과 대응되며, COSN github releases에서 확인 가능합니다.

Tencent Cloud EMR 환경에 마운트

Elastic MapReduce(EMR)는 클라우드 네이티브 기술과 범용 Hadoop 생태 오픈소스 기술에 기반한 안전하고 저렴하며, 고신뢰성인 오픈소스 빅데이터 플랫폼으로, 이미 메타데이터 가속 버킷을 완벽하게 통합하였습니다.

전제 조건

메타데이터 가속 버킷을 생성하고 HDFS 프로토콜을 활성화하였으며, 컴퓨팅 클러스터가 위치한 VPC 네트워크 주소를 바인딩하였습니다. 자세한 작업 방법은 메타데이터 가속 버킷 생성 및 HDFS 프로토콜 활성화를 참고하십시오.
상호 연결을 보장하기 위해 동일 리전에 EMR 클러스터를 생성하였습니다. 자세한 작업 방법은 EMR 신규 사용자 가이드를 참고하십시오.
EMR temrfs 클라이언트는 COSN 및 api bundle이 통합되었으나, CHDFS 클라이언트를 추가로 다운로드해야 합니다. 다운로드 주소: chdfs-hadoop-plugin.

작업 단계

1. 생성된 EMR 환경에 로그인하여 해당 머신에서 다음 명령어를 실행하고, EMR 환경의 JAR 패키지 버전이 환경 종속성 요구 사항을 만족하는지 확인합니다.
find / -name "chdfs*"
find / -name "temrfs_hadoop*"
검색 결과를 확인하여 환경에 temrfs_hadoop_pluginchdfs_hadoop_plugin 두 개의 jar 패키지가 있는지, chdfs_hadoop_plugin 버전이 2.7 이상인지 확인합니다.





2. (선택 사항) chdfs_hadoop_plugin 버전을 업데이트해야 하는 경우 다음 작업을 수행하십시오.
2.1 jar 패키지 업데이트 스크립트 파일을 다운로드합니다. 다운로드 주소는 다음과 같습니다.
2.2 위의 두 스크립트 파일을 서버의 /root 디렉터리에 넣고 update_cos_jar.sh에 실행 권한을 부여하고 다음 명령어를 실행합니다.
주의:
URL 매개변수를 해당 리전의 버킷으로 변경하십시오. 예를 들어 광저우 리전인 경우 https://hadoop-jar-guangzhou-1259378398.cos.ap-guangzhou.myqcloud.com/hadoop_plugin_network/2.7로 변경하십시오.
sh update_cos_jar.sh https://hadoop-jar-beijing-1259378398.cos.ap-beijing.myqcloud.com/hadoop_plugin_network/2.7
2.3 각 EMR 노드에서 위 단계를 순차적으로 실행하여 머신의 jar 패키지가 모두 교체합니다.
3. (선택 사항) hadoop-cos 패키지 또는 cos_api-bundle 버전을 업데이트해야 하는 경우 EMR 업데이트 설명 문서를 참고하십시오.
4. EMR 콘솔에서 core-site.xml을 구성하고 새로운 구성 항목 fs.cosn.bucket.region을 추가합니다. 매개변수 fs.cosn.trsf.fs.ofs.bucket.region은 버킷의 COS 리전(예: ap-shanghai)을 지정하는 데 사용됩니다.
주의:
fs.cosn.bucket.regionfs.cosn.trsf.fs.ofs.bucket.region은 버킷의 COS 리전(예: ap-shanghai)을 지정하기 위한 필수 구성 항목입니다. 버킷에 해당하는 리전은 COS 리전 설명 문서를 참고하십시오.
5. Yarn, Hive, Presto, Impala 등의 일부 상주 서비스를 재시작하고 core-site.xml을 모든 Hadoop 노드에 동기화합니다.
6. 마운트 성공 여부를 검증합니다.
hadoop fs 명령줄 도구를 사용하여 hadoop fs -ls cosn://${bucketname-appid}/ 명령어를 실행합니다(bucketname-appid는 마운트 주소, 즉 버킷 이름). 파일 목록이 정상적으로 나열되면 COS 버킷이 성공적으로 마운트되었음을 의미합니다.



자체 구축 Hadoop/CDH 등 환경에 마운트

전제 조건

메타데이터 가속 버킷을 생성하고 HDFS 프로토콜을 활성화하였으며, 컴퓨팅 클러스터가 위치한 VPC 네트워크 주소를 바인딩하였습니다. 자세한 작업 방법은 메타데이터 가속 버킷 생성 및 HDFS 프로토콜 활성화를 참고하십시오.
컴퓨팅 클러스터에서 마운트할 머신 또는 컨테이너에 Java 1.8 또는 Java 11이 설치되어 있는지 확인하십시오.
환경 종속성에서 요구하는 버전 패키지를 다운로드했습니다.

작업 단계

1. 환경 종속성에서 언급한 설치 패키지를 Hadoop 클러스터의 각 서버 classpath 경로에 올바르게 배치합니다.
설명:
경로 참조: /usr/local/service/hadoop/share/hadoop/common/lib/, 실제 상황에 따라 컴포넌트의 배치 위치가 다를 수 있습니다.
2. hadoop-env.sh 파일을 수정합니다. $HADOOP_HOME/etc/hadoop 디렉터리로 이동하여 hadoop-env.sh 파일을 편집하고, 다음 내용을 추가하여 cosn 관련 jar 패키지를 Hadoop 환경 변수에 추가합니다.
for f in $HADOOP_HOME/share/hadoop/tools/lib/*.jar; do
if [ -n "$HADOOP_CLASSPATH" ]; then
HADOOP_CLASSPATH="$HADOOP_CLASSPATH:$f"
else
HADOOP_CLASSPATH="$f"
fi
done

export HADOOP_CLASSPATH
3. 컴퓨팅 클러스터에서 core-site.xml을 구성하고 다음의 필수 구성을 추가합니다.
OFS 클라이언트 사용
COSN 클라이언트 사용
OFS 클라이언트 필수 구성 항목은 다음과 같습니다.
구성 항목
구성 항목 내용
설명
fs.AbstractFileSystem.ofs.impl
com.qcloud.chdfs.fs.CHDFSDelegateFSAdapter
메타데이터 버킷 액세스 구현 클래스
fs.ofs.impl
com.qcloud.chdfs.fs.CHDFSHadoopFileSystemAdapter
메타데이터 버킷 액세스 구현 클래스
fs.ofs.tmp.cache.dir
형식 예시: /data/emr/hdfs/tmp/posix-cosn/
실제로 존재하는 로컬 디렉터리를 설정합니다. 실행 과정에서 생성된 임시 파일은 일시적으로 여기에 저장됩니다. 동시에 각 노드에서 해당 디렉터리에 충분한 공간과 권한을 구성할 것을 권장합니다. 예: /data/emr/hdfs/tmp/posix-cosn/
fs.ofs.user.appid
형식 예시: 12500000000
필수. 사용자 appid
fs.ofs.bucket.region
형식 예시: ap-beijing
필수. 사용자 bucket에 해당하는 region

core-site.xml 구성 참조 예시:
<!--ofs 구현 클래스-->
<property>
<name>fs.AbstractFileSystem.ofs.impl</name>
<value>com.qcloud.chdfs.fs.CHDFSDelegateFSAdapter</value>
</property>

<!--ofs 구현 클래스-->
<property>
<name>fs.ofs.impl</name>
<value>com.qcloud.chdfs.fs.CHDFSHadoopFileSystemAdapter</value>
</property>

<!--로컬 cache의 임시 디렉터리입니다. 데이터 읽기/쓰기 시 메모리가 부족한 경우 cache가 로컬 하드 디스크에 저장되며, 이 경로가 존재하지 않으면 자동 생성됩니다.-->
<property>
<name>fs.ofs.tmp.cache.dir</name>
<value>/data/chdfs_tmp_cache</value>
</property>

<!--사용자의 appId, Tencent Cloud 콘솔(https://console.tencentcloud.com/developer)에서 확인 가능-->
<property>
<name>fs.ofs.user.appid</name>
<value>1250000000</value>
</property>

<!--사용자 버킷의 리전 정보, 형식 예시: ap-guangzhou-->
<property>
<name>fs.ofs.bucket.region</name>
<value>ap-guangzhou</value>
</property>
클라이언트 소개에서 설명한 바와 같이, COSN 클라이언트를 사용하면 먼저 HEAD Bucket 요청을 통해 버킷 유형이 메타데이터 가속 버킷인지 판단한 후, 요청을 CHDFS OFS 클라이언트로 전달하여 처리합니다. 따라서 구성 항목은 다음 두 부분을 포함합니다.
COSN 구성 항목: HEAD Bucket 요청을 시작합니다. 필수 구성 항목은 다음과 같습니다.
주의:
비즈니스 보안성을 향상시키기 위해 사용자가 구성에서 영구 키 사용을 최대한 피하고, 서브 계정 키 또는 임시 키를 채택하는 것을 권장합니다. 서브 계정 권한 부여 시 최소 권한 지침 원칙을 준수하여 예상치 못한 데이터 유출을 방지하십시오.
사용자가 반드시 영구 키를 사용해야 하는 경우, 영구 키의 권한 범위를 제한하는 것을 권장합니다. 최소 권한 지침 원칙을 참고하여 영구 키의 실행 가능 작업, 리소스 범위 및 조건(액세스 IP 등)을 제한함으로써 사용 안전성을 높일 수 있습니다.
구성 항목
구성 항목 내용
설명
fs.cosn.userinfo.secretId/secretKey
형식 예시: ************************************
사용자 계정의 API 키 정보를 작성합니다. CAM 콘솔에 로그인하여 API 키를 확인 가능합니다.
fs.cosn.impl
org.apache.hadoop.fs.CosFileSystem
cosn이 FileSystem에 대한 구현 클래스이며, 고정 값은 org.apache.hadoop.fs.CosFileSystem입니다.
fs.AbstractFileSystem.cosn.impl
org.apache.hadoop.fs.CosN
cosn은 AbstractFileSystem에 대한 구현 클래스이며, 고정 값은 org.apache.hadoop.fs.CosN입니다.
fs.cosn.bucket.region
형식 예시: ap-beijing
액세스할 버킷의 리전 정보를 작성합니다. 열거형 값은 리전 및 액세스 도메인의 리전 약칭(예: ap-beijing, ap-guangzhou)을 참조하십시오. 기존 구성과 호환: fs.cosn.userinfo.region.
fs.cosn.tmp.dir
기본값 /tmp/hadoop_cos
실제로 존재하는 로컬 디렉터리를 설정합니다. 실행 과정에서 생성된 임시 파일은 일시적으로 여기에 저장됩니다. 동시에 각 노드에서 해당 디렉터리에 충분한 공간과 권한을 구성할 것을 권장합니다.
OFS 구성 항목: 전달된 요청을 처리합니다. COSN 구성 항목에 trsf.fs.ofs를 추가하여 구성 항목 매핑을 구현합니다. 필수 구성 항목은 다음과 같습니다.
구성 항목
구성 항목 내용
설명
fs.cosn.trsf.fs.AbstractFileSystem.ofs.impl
com.qcloud.chdfs.fs.CHDFSDelegateFSAdapter
메타데이터 버킷 액세스 구현 클래스
fs.cosn.trsf.fs.ofs.impl
com.qcloud.chdfs.fs.CHDFSHadoopFileSystemAdapter
메타데이터 버킷 액세스 구현 클래스
fs.cosn.trsf.fs.ofs.tmp.cache.dir
형식 예시: /data/emr/hdfs/tmp/posix-cosn/
실제로 존재하는 로컬 디렉터리를 설정합니다. 실행 과정에서 생성된 임시 파일은 일시적으로 여기에 저장됩니다. 동시에 각 노드에서 해당 디렉터리에 충분한 공간과 권한을 구성할 것을 권장합니다. 예: /data/emr/hdfs/tmp/posix-cosn/
fs.cosn.trsf.fs.ofs.user.appid
형식 예시: 12500000000
필수. 사용자 appid
fs.cosn.trsf.fs.ofs.bucket.region
형식 예시: ap-beijing
필수. 사용자 bucket에 해당하는 region
core-site.xml 구성 참조 예시:
<!--계정의 API 키 정보. [CAM 콘솔](https://console.tencentcloud.com/capi)에 로그인하여 API 키 확인 가능합니다.-->
<!--구성 보안을 강화하기 위해 서브 계정 키 또는 임시 키를 사용하는 것을 권장합니다. 서브 계정 권한 부여 시 [최소 권한 지침 원칙](https://www.tencentcloud.com/document/product/436/32972)을 준수하십시오.-->
<property>
<name>fs.cosn.userinfo.secretId/secretKey</name>
<value>************************************</value>
</property>

<!--cosn 구현 클래스-->
<property>
<name>fs.AbstractFileSystem.cosn.impl</name>
<value>org.apache.hadoop.fs.CosN</value>
</property>

<!--cosn 구현 클래스-->
<property>
<name>fs.cosn.impl</name>
<value>org.apache.hadoop.fs.CosFileSystem</value>
</property>

<!--사용자 버킷의 리전 정보, 형식 예시: ap-guangzhou-->
<property>
<name>fs.cosn.bucket.region</name>
<value>ap-guangzhou</value>
</property>

<!--로컬 임시 디렉터리, 실행 과정에서 생성된 임시 파일을 저장합니다.-->
<property>
<name>fs.cosn.tmp.dir</name>
<value>/tmp/hadoop_cos</value>
</property>

<!--ofs 구현 클래스-->
<property>
<name>fs.cosn.trsf.fs.AbstractFileSystem.ofs.impl</name>
<value>com.qcloud.chdfs.fs.CHDFSDelegateFSAdapter</value>
</property>

<!--ofs 구현 클래스-->
<property>
<name>fs.cosn.trsf.fs.ofs.impl</name>
<value>com.qcloud.chdfs.fs.CHDFSHadoopFileSystemAdapter</value>
</property>

<!--로컬 cache의 임시 디렉터리입니다. 데이터 읽기/쓰기 시 메모리가 부족한 경우 cache가 로컬 하드 디스크에 저장되며, 이 경로가 존재하지 않으면 자동 생성됩니다.-->
<property>
<name>fs.cosn.trsf.fs.ofs.tmp.cache.dir</name>
<value>/data/chdfs_tmp_cache</value>
</property>

<!--사용자의 appId, Tencent Cloud 콘솔(https://console.tencentcloud.com/developer)에서 확인 가능-->
<property>
<name>fs.cosn.trsf.fs.ofs.user.appid</name>
<value>1250000000</value>
</property>

<!--사용자 버킷의 리전 정보, 형식 예시: ap-guangzhou-->
<property>
<name>fs.cosn.trsf.fs.ofs.bucket.region</name>
<value>ap-guangzhou</value>
</property>
4. 마운트 성공 여부를 검증합니다.
hadoop fs 명령줄 도구를 사용하여 hadoop fs -ls cosn://${bucketname-appid}/ 명령어를 실행합니다(bucketname-appid는 마운트 주소, 즉 버킷 이름). 파일 목록이 정상적으로 나열되면 COS 버킷이 성공적으로 마운트되었음을 의미합니다.


설명:
일부 상주 서비스 컴포넌트(예: Yarn, Hive, Trino(Presto), Impala 등)의 경우 EMR 콘솔에서 컴포넌트를 재시작하여 구성을 로드해야 합니다.

도움말 및 지원

문제 해결에 도움이 되었나요?

피드백