목록Data Engineering & DataOps/Kafka (13)
without haste but without rest
카프카의 복제 메커니즘은 단일 클러스터에서만 동작하도록 설계되었다. 따라서 다중 클러스터에서의 복제를 지원하기 위해 미러메이커가 카프카에 포함되어있다. 근본적으로 미러메이커도 카프카의 프로듀서, 컨슈머이며 각 미러메이커는 큐로 상호 연결된다. 임시저장
- 카프카 96초당 1TB 데이터 전송하기 https://www.confluent.io/blog/scaling-kafka-to-10-gb-per-second-in-confluent-cloud/ Scaling Kafka to 10+ GB/Second in Confluent Cloud Behind the magic: how Confluent Cloud scales Kafka to over 10 gigabytes per second in seven clicks, with zero downtime. www.confluent.io - 카프카 벤치마크 https://www.confluent.io/blog/kafka-fastest-messaging-system/#:~:text=Throughput%3A%20Kafka%..
0. 요약 confluent 사에서 제공하는 도커 컴포즈 파일을 이용해서 카프카 브로커를 빠르게 구축한다. 도커 및 도커 컴포즈를 사용할 줄 안다고 가정한다. 장점은 곧바로 카프카를 사용할 수 있다는 점이며 도커 컴포즈 파일 기반이기 때문에 포트 번호와 옵션 등을 쉽게 수정할 수 있다. 카프카 클러스터, ksqlDB, 컨트롤 센터, 쥬키퍼 등을 제공한다. 주의할 점은 개발 용도의 파일이라 프로덕션 목적을 금지하고 있다. (커뮤니티 버전이 따로 있긴한데, 해당 파일은 컨트롤 센터가 없다.) 1. cp-all-in-one 파일 다운로드 confluentinc/cp-all-in-one docker-compose.yml files for cp-all-in-one , cp-all-in-one-community, ..

참조 - https://analyticshut.com/kafka-producer-and-consumer-in-python/ Kafka Producers and Consumers in Python | Analyticshut After writing consumers, producers and topics in Java, we will do the same in Python with just 10% lines of code. analyticshut.com 0. 개요 데이터 파이프라인 구축 공부를 위해서 파이썬으로 카프카 프로듀서를 만들었다. 프로듀서를 만든 환경은 윈도우이며 파이참을 사용했다. 카프카 브로커 클러스터는 aws ec2에 구축한 상태이다. 윈도우가 프롬프트 라인에서 ssh를 제공하지만 권한 문제..
https://www.youtube.com/playlist?list=PL9mhQYIlKEheZvqoJj_PkYGA2hhBhgha8 토크ON 77차. 아파치 카프카 입문 | T아카데미 - YouTube www.youtube.com 카프카의 경우 튜토리얼 자료를 찾아보기 어려웠는데 이번에 t 아카데미 강좌에서 데브 원영님이 입문 강좌를 진행해주셨다. 깃헙에 보조 자료들도 꼼꼼하게 챙겨주셔서 편안하게 공부할 수 있었다. 카프카 입문 자료 - 데브원영님 리포지토리 https://github.com/AndersonChoi/tacademy-kafka AndersonChoi/tacademy-kafka t아카데미 카프카 강의를 위한 repository입니다. Contribute to AndersonChoi/tacade..