본문으로 건너뛰기
실습하기

SEO 도구 - robots, sitemap, rss

SEO에서 웹사이트를 검색 엔진에 효과적으로 소개하기 위한 몇 가지 추가 도구들이 있습니다.

이번 수업에서는 자주 사용하는 SEO 도구들인 robots.txt, sitemap 그리고 rss에 대해 알아보겠습니다.


robots.txt

robots.txt는 웹사이트 내 텍스트 파일로, 검색 엔진에게 어떤 페이지를 수집하거나 수집하지 말아야 하는지 알려줍니다.

robots.txt 예시
User-agent: *
Disallow: /private/
Allow: /public/

위 robots.txt는 모든 검색 엔진에게 /private/ 디렉토리에 접근을 허용하지 않고, /public/ 디렉토리에 접근을 허용한다고 지시합니다.


Sitemap

sitemap은 웹사이트의 페이지들의 목록과 그 관계를 나타내는 파일입니다.

사이트맵은 검색 엔진에게 웹사이트의 구조를 알려주고, 웹페이지 내 링크들을 표시하는 지도와 같은 역할을 합니다.

sitemap 예시
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://example.com/page1</loc>
<lastmod>2023-10-15</lastmod>
<changefreq>daily</changefreq>
</url>
<url>
<loc>https://example.com/page2</loc>
</url>
</urlset>

위 사이트맵 예시는 두 개의 웹 페이지를 나열하고, page1은 마지막 수정 날짜와 변경 빈도도 함께 표기했습니다.


RSS

rss는 웹사이트의 콘텐츠 업데이트를 구독자에게 자동으로 알려주는 파일입니다. 주로 블로그, 뉴스레터 웹서비스에서 많이 사용되고 있습니다.

rss 예시
<?xml version="1.0"?>
<rss version="2.0">
<channel>
<title>My Website News</title>
<link>https://example.com</link>
<description>Latest updates from My Website</description>
<item>
<title>New Article</title>
<link>https://example.com/new-article</link>
<description>This is a new article.</description>
</item>
</channel>
</rss>

위의 예시에서는 'My Website News'라는 제목의 업데이트 정보와 그 안에 있는 'New Article'이라는 콘텐츠를 소개하고 있습니다.

다음 내용이 궁금하다면?

코드프렌즈 PLUS 멤버십 가입 or 강의를 등록해 주세요!