작은 자동화가 일을 더 늘리는 순간
자동화는 항상 좋은 것처럼 보입니다. 반복 작업을 줄이고, 실수를 막고, 다음 작업을 빠르게 만들어줄 것 같습니다. 하지만 개인 프로젝트에서는 작은 자동화가 오히려 일을 늘리는 경우도 꽤 있습니다.
Daejin Lab을 만들면서 그 지점을 자주 봤습니다. 특히 블로그 운영처럼 글, 빌드, 배포, Search Console, AdSense 준비가 섞인 작업에서는 자동화보다 “어디서 멈출지”가 더 중요했습니다.
자동화가 일을 늘리는 패턴
작은 자동화가 실패하는 가장 흔한 패턴은 확인할 대상보다 자동화 자체가 더 복잡해지는 경우입니다.
스크립트가 하는 일을 이해해야 한다.
실패했을 때 로그를 다시 해석해야 한다.
예외 상황을 계속 추가해야 한다.
자동화 결과가 맞는지 사람이 다시 확인해야 한다.
예를 들어 sitemap 상태가 Search Console에서 가져올 수 없음으로 보인다고 해서, sitemap 파일을 계속 다른 형식으로 생성하는 스크립트를 만들면 일이 커집니다. 실제로는 공개 URL이 200이고 XML 파싱이 되면 기다리는 것이 맞을 수 있습니다.
자동화하기 전에 보는 질문
그래서 자동화를 만들기 전에 아래 질문을 먼저 봅니다.
이 작업은 일주일에 몇 번 반복되는가?
실패했을 때 피해가 큰가?
결과를 명령어로 검증할 수 있는가?
수동으로 하면 5분 안에 끝나는가?
다른 블로그에도 그대로 재사용할 수 있는가?
수동으로 3분 걸리는 일을 자동화하느라 1시간을 쓰면 당장은 손해입니다. 다만 앞으로 5개 블로그에서 매주 반복될 일이라면 그때는 스크립트로 바꿀 가치가 있습니다.
Daejin Lab에서 자동화한 것과 남긴 것
이번 블로그 작업에서는 자동화할 일과 사람이 볼 일을 나눴습니다.
자동화하기 좋은 것:
- 글 개수 세기
- 카테고리별 분포 확인
- 짧은 글 후보 찾기
- npm run build 실행
- sitemap URL 수 확인
사람이 볼 것:
- 글이 실제 경험처럼 읽히는지
- Search Console 화면을 어떻게 해석할지
- AdSense 신청 시점을 언제로 잡을지
- git push와 배포를 지금 할지
이 구분을 해두니 자동화가 목적이 아니라 운영 보조가 됩니다. 특히 AdSense 준비 단계에서는 글의 신뢰감이 중요하기 때문에, 스크립트 결과만 보고 “준비 완료”라고 말하면 위험합니다.
자동화를 미뤄도 되는 경우
아래 조건이면 자동화를 바로 만들지 않아도 됩니다.
작업이 아직 한두 번밖에 반복되지 않았다.
절차가 계속 바뀌고 있다.
외부 서비스 처리 지연이 원인일 수 있다.
실패했을 때 사람이 판단해야 한다.
Search Console sitemap 문제도 여기에 가까웠습니다. 사이트 파일을 더 고치기보다, 공개 URL과 Googlebot 유사 요청이 정상인지 확인한 뒤 기다리는 쪽이 더 안전했습니다.
지금 남긴 기준
개인 프로젝트에서 자동화는 작게 시작하는 편이 낫습니다. 처음부터 완전 자동 운영을 목표로 잡으면, 도구를 돌보기 위해 또 다른 도구가 필요해집니다.
Daejin Lab에서는 앞으로도 아래 순서로 자동화를 붙일 생각입니다.
1. 사람이 반복해서 확인한다.
2. 반복 항목을 체크리스트로 만든다.
3. 명령어로 검증 가능한 것만 스크립트로 바꾼다.
4. 실패하면 사람이 해석한다.
5. 여러 블로그에 반복될 때만 공통 도구로 만든다.
자동화의 목적은 일을 없애는 것이 아니라, 사람이 판단해야 할 시간과 체력을 남기는 것입니다.
자동화 보류 기준표
이번 사이트 점검에서 가장 조심한 부분은 sitemap을 계속 바꾸지 않는 일이었습니다. 공개 URL이 정상인데 Search Console만 늦게 반응할 때는 자동 수정이 오히려 문제를 키울 수 있습니다.
| 상황 | 자동화해도 되는 것 | 보류한 것 |
|---|---|---|
| sitemap 상태 확인 | HTTP 200, XML 파싱, URL 수 확인 | GSC 상태만 보고 파일 형식 계속 변경 |
| 글 품질 점검 | 내부 링크 수, description 길이 추출 | 글 내용을 자동으로 대량 발행 |
| 배포 확인 | 대표 URL의 새 문구 확인 | 외부 콘솔 조작 자동화 |
| 폴더 정리 | dry-run 리포트 생성 | 원본 파일 자동 삭제 |
그래서 Search Console 문제는 robots.txt와 canonical을 점검하며 확인한 색인 기본 조건과 사이트맵이 정상인데 Search Console은 실패할 때 다음에 한 일처럼 파일과 콘솔 상태를 분리해서 봤습니다.