SEO AI Mode là gì và vì sao là “cú sốc” cho SEO?
AI Mode là lớp tìm kiếm mới của Google, nơi mỗi truy vấn được xử lý bằng mô hình ngôn ngữ lớn (LLM), reasoning đa bước và cá nhân hoá sâu dựa trên lịch sử người dùng, thay vì chỉ xếp hạng danh sách link như SERP truyền thống. Điều này khiến SEO cổ điển – vốn xoay quanh từ khóa, thứ hạng URL và CTR – không còn đủ để đảm bảo hiển thị, đặc biệt khi câu trả lời AI có thể giải quyết nhu cầu mà không cần người dùng nhấp vào website.
Đối với một agency SEO & đào tạo SEO, AI Mode không chỉ là “thêm một tính năng SERP” mà là tín hiệu cho một cuộc chuyển giao: từ “Tối ưu cho công cụ tìm kiếm” sang “Kỹ sư hoá mức độ liên quan” (Relevance Engineering) trong môi trường truy vấn ẩn, đa nguồn và đa định dạng.
AI Mode hoạt động như thế nào? (Query Fan-Out, Dense Retrieval, Reasoning)
Về mặt kỹ thuật, AI Mode vận hành theo chuỗi: hiểu ngữ cảnh người dùng → mở rộng truy vấn (query fan-out) → truy xuất theo vector embedding (dense retrieval) → lọc và xếp hạng đoạn nội dung → LLM reasoning & tổng hợp câu trả lời → cá nhân hóa theo user embedding.
Query fan-out: từ 1 truy vấn thành “chùm” truy vấn ẩn
Google không chỉ chạy 1 truy vấn gốc mà còn sinh ra nhiều synthetic queries bao quanh ý định thật sự của người dùng: so sánh, khám phá, quyết định, biến thể từ vựng, biến thể entity. Patent “Systems and methods for prompt-based query generation for diverse retrieval” mô tả rõ cách LLM được prompt để tạo truy vấn đa dạng intent, đa dạng từ vựng, sau đó lọc lại để đảm bảo phạm vi nội dung rộng mà không bị trùng lặp ngữ nghĩa.
Hệ quả: việc đứng top cho “từ khóa chính” không đảm bảo bạn được chọn vào câu trả lời AI, vì AI Mode có thể chọn đoạn nội dung đang đứng top cho một truy vấn phụ nào đó mà bạn thậm chí không đo lường.
Dense retrieval & passage-level semantics
Toàn bộ pipeline AI Mode dựa trên dense retrieval: mọi truy vấn, truy vấn phụ, tài liệu, đoạn nội dung đều được chuyển thành vector embedding trong không gian nhiều chiều. Thay vì đếm từ khóa (TF‑IDF, BM25), hệ thống đo độ tương đồng ngữ nghĩa giữa vector truy vấn và vector đoạn nội dung, có thể đi kèm cơ chế so sánh cặp (pairwise ranking) như mô tả trong patent “Method for text ranking with pairwise ranking prompting”.
Với agency SEO, điều này có nghĩa:
-
“Đoạn” (passage) mới là đơn vị chiến đấu, không phải cả trang.
-
Nội dung phải “gọn – đúng mục tiêu – đủ ngữ cảnh” ở cấp đoạn để thắng khi LLM so sánh 2–2 xem đoạn nào phù hợp hơn với truy vấn ẩn.
Reasoning chains và stateful chat
Patent “Search with stateful chat” chỉ ra rằng AI Mode duy trì bối cảnh hội thoại, dùng chuỗi suy luận (reasoning chains) để chia nhỏ bài toán thành nhiều bước: hiểu ý định, tìm bằng chứng, so sánh, xác thực và cuối cùng tổng hợp câu trả lời. Thêm vào đó, patent về “User Embedding Models for Personalization of Sequence Processing Models” mô tả cách Google dùng user embeddings – vector hoá hành vi dài hạn của người dùng – để cá nhân hoá mọi bước từ giải thích truy vấn đến lựa chọn đoạn nội dung.
Kết luận: thay vì “một SERP cho tất cả”, mỗi người có một “AI Mode SERP” riêng, khiến rank tracking logged‑out gần như mất ý nghĩa ở bề mặt này.
SEO truyền thống vs AI Mode: bảng so sánh nhanh
Bảng dưới đây giúp team và học viên SEO hình dung rõ “khoảng cách tư duy” giữa SEO cổ điển và tối ưu cho AI Mode.
| Khía cạnh | SEO truyền thống (Organic SERP) | AI Mode / AI Overviews |
|---|---|---|
| Đơn vị xếp hạng chính | Trang (URL) | Đoạn (passage) trong “custom corpus” |
| Mô hình truy xuất | Sparse (TF‑IDF, BM25, keyword match) | Dense retrieval + embedding + reasoning |
| Truy vấn | 1 truy vấn chính | Cả cụm synthetic queries (query fan-out) |
| Cá nhân hoá | Nhẹ (location, history cơ bản) | Sâu (user embedding, stateful chat) |
| Đo lường | Rank, CTR, impressions | Citation, tần suất xuất hiện, persona-based |
| Vai trò nội dung | Trả lời truy vấn riêng lẻ | Cung cấp “mảnh bằng chứng” cho chuỗi suy luận |
| Zero-click | Một phần | Mặc định – AI trả lời trực tiếp |
Bảng này cho thấy: nếu chỉ bám vào từ khóa, onpage, backlink và rank tracking, agency sẽ không thể đánh giá đúng mức độ hiện diện của khách hàng trong AI Mode.
Relevance Engineering: bước tiếp theo sau SEO
Michael King (iPullRank) và nhiều chuyên gia như Aleyda Solis, Barry Schwartz, cùng một số tác giả về Relevance Engineering đều thống nhất rằng “SEO” cần được mở rộng phạm vi thành một khung kỹ sư hoá mức độ liên quan, kết hợp IR, AI, UX và chiến lược nội dung.
Các trụ cột Relevance Engineering cho agency SEO & training:
-
Hiểu và mô phỏng không gian truy vấn mở rộng (query fan-out) bằng công cụ như Qforia, giấy trắng Google Research về “Query expansion by prompting LLMs” và patent US20240289407A1.
-
Thiết kế nội dung ở cấp đoạn: mỗi đoạn phải có một nhiệm vụ rõ ràng (giải thích, so sánh, cảnh báo, checklist…), dễ được LLM trích xuất và trích dẫn.
-
Sử dụng embedding và vector similarity để đánh giá “độ gần” giữa đoạn nội dung của bạn và các đoạn đang được AI Mode lựa chọn.
-
Gắn entity rõ ràng (thương hiệu, sản phẩm, tác giả, khu vực…) và semantic triples (chủ thể – quan hệ – thuộc tính) để giúp hệ thống hiểu và ánh xạ vào Knowledge Graph.
Chiến lược nội dung AI Mode
1. Xây ma trận từ khoá dựa trên query fan-out
Thay vì chỉ bắt đầu từ “từ khóa chính” (head terms), quy trình nên là:
-
Lấy truy vấn gốc (ví dụ: “dịch vụ SEO tổng thể cho doanh nghiệp B2B”).
-
Dùng LLM/ứng dụng kiểu Qforia hoặc framework từ giấy trắng “Query expansion by prompting LLMs” để sinh ra bộ synthetic queries: so sánh, giá, mô hình triển khai, rủi ro, case study, công cụ, KPI…
-
Gom nhóm synthetic queries theo: intent (thông tin, so sánh, giao dịch, đánh giá), entity (ngành, quy mô, khu vực), giai đoạn phễu (nhận thức – cân nhắc – quyết định – mở rộng).
Ma trận này sẽ là input cho cả chiến dịch nội dung blog, landing page, video, webinar, eBook… thay vì chỉ một cụm bài blog như SEO truyền thống.
2. Thiết kế content “fan-out compatible” và “passage-first”
Mỗi bài trụ cột (pillar) nên được thiết kế để:
-
Có các đoạn độc lập, tự giải thích được một truy vấn phụ (subquery), dùng heading rõ ràng, câu mở đầu trả lời thẳng câu hỏi.
-
Chứa entity đầy đủ: tên công nghệ (RAG, dense retrieval, Gemini, MCP), tên tác giả (Michael King, Andrei Broder, James Cadwallader…), tên tài liệu (Delphic Costs, Search with Stateful Chat…).
-
Có các bảng so sánh (SEO truyền thống vs AI Mode; Rank tracking vs persona tracking; Content plan vs Relevance matrix) để tăng khả năng được chọn khi hệ thống cần cấu trúc so sánh.
Đối với agency đào tạo SEO, có thể biến các đoạn này thành slide, worksheet, và bài tập thực hành vector similarity để học viên hiểu cơ chế phía sau.
3. RAG & entity chuyên sâu trong nội dung
Để gắn nội dung vào bối cảnh “Entity + RAG + Search mới”, nên:
-
Giải thích rõ mô hình RAG (Retrieval Augmented Generation): tách phần truy vấn – truy xuất tài liệu – tổng hợp, liên hệ trực tiếp đến pipeline AI Mode đang làm ở quy mô toàn web.
-
Nêu các entity cốt lõi trong hệ sinh thái: Google Search, Gemini, AI Overviews, AI Mode, DeepSearch, Knowledge Graph, vector database, user embedding… và mô tả mối quan hệ giữa chúng.
-
Lồng ghép các use case: xây RAG nội bộ (intranet, knowledge base) để doanh nghiệp “tập dợt” với cách Google đang đọc web; qua đó bán thêm dịch vụ tư vấn AI/RAG song song với SEO.
Đo lường & công cụ: từ rank tracking sang persona-based analytics
Google hiện chưa cung cấp báo cáo tách riêng AI Mode/AIO trong Search Console, khiến phần lớn traffic AI Mode rơi vào nhóm “Direct” hoặc khó truy vết chính xác. Một số nền tảng như Profound đang định nghĩa lại analytics cho conversational search, tập trung vào việc theo dõi câu hỏi, loại intent, tần suất xuất hiện thương hiệu trong câu trả lời AI và persona-based tracking.
Đối với agency:
-
Rank tracking truyền thống vẫn cần nhưng không đủ; nên bổ sung test ở trạng thái đăng nhập với tài khoản được “nuôi” hành vi giống khách hàng mục tiêu, sau đó đo xem thương hiệu/website được trích dẫn như thế nào trong AI Mode.
-
Cần yêu cầu hoặc tự xây công cụ có khả năng: crawl nội dung, cắt đoạn, tạo embedding, tính vector similarity, so sánh với đoạn được AI Mode trích dẫn, và đưa ra gợi ý tối ưu ở cấp passage.
Kết luận thực tế
AI Mode buộc ngành SEO phải dịch chuyển từ “tối ưu trang cho 1 từ khóa” sang “kỹ sư hoá mức độ liên quan trong một ma trận truy vấn ẩn, đa định dạng và cá nhân hoá sâu”. Một agency SEO & training có lợi thế lớn nếu: dạy học viên nền tảng IR/embedding/query fan-out, xây case study nội bộ về tối ưu passage trong AI Mode, và phát triển dịch vụ “Relevance Engineering” bên cạnh SEO truyền thống.