Structured data scraping의 다음 증권 전체 업종 시세 예

다음 증권 전체 업종 시세(https://finance.daum.net/domestic/sectors)에서
코스피 테이블을 csv 파일로 저장 … OK
코스닥 테이블을 csv 파일로 저장… OK … 그런데 2번째 페이지가 csv 파일에 저장 안되었네요. 1페이지만 데이터만 있음. nextlinkselector 도 지정했는데…
무엇이 빠졌나요 ?

보안상 문제가 되지 않는다면 워크플로우를 올려주시겠어요?
소스를 봐야 어떤 문제인지 특정할 수 있을 듯 합니다.

등급이 낮아서 파일 업로드가 안되는것 같네요.
혹시 다른 공유 방법이 있나요 ?

혹시 이미지 캡처는 가능하실까요??

말씀하신 프로세스를 제 나름대로 만들어보았습니다만…
만들면서 에러사항을 점검해본 결과 아무래도 데이터 스크래핑의
Extract Structured Data 액티비티의 셀렉터 변경이 필요해 보입니다.

현재 같이 올리는 파일은 제 나름대로 셀렉터를 변경하고 데이터 중복 방지를 위한 로직 또한 추가하였으니 확인하시고 참고하실 부분을 참고하시면 될 듯 합니다.

Finance.zip (532.7 KB)

친절한 답변 감사합니다. 제가 완전 초보라서 … 제가 기본적으로 데이터 스크래핑을 하면 아래와 같이 테이블 추출하는 형식으로 보이는데, 아래와 같은 형식을 그대로 사용하면 문제가 있는 건가요 ?

그리고 질문이 하나 더 있는데, IDX=3 은 어떻게 찾는 건가요 ?
미리 감사드립니다.

아래 형식이 어떤걸 말씀하지는지 나와있지않아서…
일단 셀렉터는 기본적으로 열 하나하나를 잡았을 경우 데이터 부분의 셀렉터 범위가


해당 범위로 지정이 됩니다.
하지만 해당 범위로 진행한 경우 코스닥 부분에서 추출 진행 시 문제가 생겨서 셀렉터를 다시 잡아주었습니다.

해당 범위로 다시 지정하면 IDX=3과 같은 셀렉터가 포함되면서 자동으로 값을 구성해주는것입니다.
image

도움이 되셨길 바랍니다

많은 도움이 되었습니다. 상세한 답변 감사드립니다.

추후 궁금한 사항이 있을 때 메세지 주시면 답변 드리겠습니다~