Big Data và ứng dụng trong tối ưu hoá tỷ lệ chuyển đổi

Big Data và ứng dụng trong tối ưu hoá tỷ lệ chuyển đổi

Tối ưu hoá tỷ lệ chuyển đổi (CRO) là bài toán liên quan đến dữ liệu: từ việc thu thập, phân tích dữ liệu ban đầu và đưa ra các giả thuyết, thử nghiệm để rồi lại dựa trên dữ liệu kết quả để đưa ra giải pháp tối ưu. Trong phạm vi lượng dữ liệu nhỏ và không quá phức tạp, chúng ta có thể tự xử lý và tối ưu. Vậy với những trường hợp mà lượng dữ liệu vô cùng lớn và ở mức độ phức tạp cao, công việc CRO sẽ diễn ra như nào. Những website ở quy mô lớn trên toàn cầu như Amazon, Ebay… với lượng truy cập lên tới hàng chục triệu phiên/ngày, hàng triệu sản phẩm thì công việc tối ưu hóa tỷ lệ chuyển đổi có gì khác biệt? Để giải quyết bài toán này, cần tìm hiểu về big data hay còn gọi là dữ liệu lớn. Theo định nghĩa của Wikipedia thì “Dữ liệu lớn là một thuật ngữ cho rằng việc xử lý một tập hợp dữ liệu rất lớn và phức tạp mà các ứng dụng xử lý dữ liệu truyền thống không xử lý được”, giúp tiết kiệm thời gian, chi phí xử lý và kết quả đem lại là tương đối hiệu quả.


Theo thời gian, những ứng dụng của dữ liệu lớn đang mang lại rất nhiều tác động tới các mặt của đời sống. Với CRO, dữ liệu lớn cũng mở ra cơ hội cho những website với lượng dữ liệu khổng lồ và phức tạp có thể ứng dụng được chúng và đạt được tỷ lệ chuyển đổi cao hơn, khả năng tăng trưởng tốt hơn. Dưới đây là một số cách được gợi ý.

1. Xây dựng kho dữ liệu người dùng

Sử dụng rất nhiều nguồn thông tin khác nhau website có thể xây dựng một kho dữ liệu vô cùng lớn về người dùng. Mỗi một khách truy cập trên website sẽ được tổng hợp tất cả các thông tin liên quan về đặc điểm cá nhân: giới tính, độ tuổi; các hành vi cụ thể như nơi họ ở, nơi họ đến, thiết bị và trình duyệt họ dùng để truy cập, các trang web họ đã từng xem, những gì họ tìm kiếm, những sản phẩm họ mua, các hành động họ từng thực hiện và các điểm tiếp xúc khác của họ với doanh nghiệp trên suốt hành trình. Thậm chí dữ liệu này có thể sâu đến mức đánh giá trải nghiệm và cảm nhận của họ. Bạn hãy tưởng tượng một website có hàng triệu lượt truy cập mỗi ngày và công việc thu thập và xây dựng hồ sơ liên quan đến họ sẽ tạo ra một lượng dữ liệu khổng lồ như thế nào. Và quan trọng hơn, chúng ta sẽ làm gì với lượng dữ liệu này? Câu trả lời là tạo ra các phân đoạn người dùng, tạo mô hình cho phép tối ưu hóa hợp lý luồng hành vi của họ, chọn ra cách dẫn dắt hợp lý đưa họ đến chuyển đổi cần thiết.

Không chỉ dừng lại ở đó, khi dữ liệu về người dùng được móc nối thêm với lượng dữ liệu khổng lồ tương ứng về sản phẩm, dịch vụ, dữ liệu về người bán, dữ liệu của nhà tiếp thị liên kết và các nguồn thông tin khác liên quan thì những gì khai thác được từ sự kết hợp này còn lớn hơn gấp bội.

2. Phân tích dự đoán

Mọi quá trình thu thập, phân tích và xử lý dữ liệu suy cho cùng cũng chỉ nhằm thực hiện hai mục đích:
– Dữ liệu cho thấy và giải thích cho những gì đã và đang xảy ra.
– Dữ liệu giúp dự đoán cho những gì sắp xảy ra.
Mọi việc phân tích sẽ chẳng để làm gì nếu nó không phục vụ cho việc đưa ra những dự đoán chính xác hơn về tương lại. Và dữ liệu lớn, với đặc trưng về mặt khối lượng dữ liệu (bất chấp việc bỏ qua những sai sót ảnh hưởng đến chất lượng dữ liệu) vô cùng lớn giải quyết rất tốt bài toán này. Trong một vài nghiên cứu cho thấy, dữ liệu lớn có thể phân tích cho ra kết quả dự đoán rất chính xác việc một sự việc sẽ xảy ra như thế nào, một người có xu hướng làm gì tiếp theo trong chuỗi hành động. Có nhiều người thậm chí lo ngại về một tương lai không xa, khi một người có thể bị bắt giam bởi vì phân tích dữ liệu lớn chỉ ra rằng họ có xác suất rất cao sẽ hành động phạm pháp. Nghe thì khá buồn cười nhưng đó là một ví dụ cho thấy khả năng dự báo mà dữ liệu lớn có thể mang lại.

Vậy điều này có thể ứng dụng như thế nào trong việc tối ưu hóa chuyển đổi? Có rất nhiều ý tưởng có thể xảy ra lúc này trong đầu bạn. Ở phần trước chúng ta đã có kho dữ liệu khổng lồ về đặc điểm, hành vi của người dùng. Và dữ liệu lớn có thể chỉ ra rằng xác suất rất cao một người có đặc điểm A,B,C sẽ có xu hướng thực hiện một hành động D. Hay như một người X với đặc điểm Y đã bỏ sản phẩm Z khỏi giỏ hàng có xu hướng cao sẽ quay trở lại mua nó vào ngày hôm sau; hoặc một người vào website từ trang chủ, xem sản phẩm sau đó chuyển sang trang giới thiêu có xu hướng quyết định mua hàng như thế nào. Có quá nhiều thứ có thể giải quyết được với bài toán dữ liệu lớn. Việc thu thập nguồn dữ liệu khổng lồ, kết hợp với đào sao dữ liệu, ứng dụng những công nghệ máy học có thể giúp tìm ra những sự thật, những xu hướng mà đôi khi trí tưởng tượng của con người không hề nghĩ tới.

3. Đề xuất

Một trong những tính năng không thể bỏ qua đối với website là tính năng đề xuất: sản phẩm liên quan, sản phẩm khuyến mãi, tin liên quan. Nếu không trải qua quá trình phân tích dữ liệu, tất cả những phương án đề xuất sẽ là lựa chọn ngẫu nhiên hoặc đưa ra theo đánh giá chủ quan. Không có gì đảm bảo rằng chúng sẽ hoạt động hiệu quả. Nhưng với sự can thiệp của dữ liệu, đặc biệt là dữ liệu lớn thì đây là một cơ hội rất lớn mở ra đối với công việc tối ưu hóa tỷ lệ chuyển đổi. Kết hợp nguồn dữ liệu khổng lồ, cùng với hàng trăm ngàn, hàng triệu thuật toán phức tạp khác nhau, chúng ta có thể biết được rằng khi người dùng xem một sản phẩm A thì nên đề xuất sản phẩm C, F, K bởi khi đó tỷ lệ họ mua thêm những sản phẩm đó là cao nhất. Hành động này tương ứng với một ví dụ trong bán hàng truyền thống tại siêu thị người ta quyết định đặt quầy bia cùng quầy bỉm bởi vì nghiên cứu chỉ ra rằng các ông bố khi đi mua bỉm cho con vào cuối tuần sẽ có xu hướng mua bia rất cao. Quay trở lại với trường hợp một website có hàng trăm triệu sản phẩm thì việc nghiên cứu bằng những công cụ thông thường là điều không thể và dữ liệu lớn là giải pháp tuyệt vời cho bài toán này.

4. Cá nhân hóa

Ban đầu khi một website xuất hiện và mãi cho tới tận nhiều năm trước đây, tính cá nhân hóa trên website vẫn còn là thứ gì đó rất xa vời hoặc vô cùng sơ khai. Hãy tưởng tượng có 100.000 người truy cập một website abc.com thì tương ứng với nó là 100.000 kết quả trả về từ máy chủ website là giống nhau đến từng hình ảnh, từng câu chữ. Về sau, một số website đã có cải tiến với các trường hợp khách hàng đăng  nhập, thông tin cá nhân được hiển thị phù hợp, tuy nhiên về cơ bản thì khung và nội dung website vẫn được giữ nguyên. Tính cá nhân hóa trên website chỉ được phát triển lên một tầm mới với sự có mặt của dữ liệu và dữ liệu lớn. Đã bao giờ bạn và một người khác cùng vào website và đặt ra câu hỏi: “Tại sao website trên máy mình hiện ra những sản phẩm A,B,C trong mục “Hàng bán chạy” mà website trên máy của người kia lại hiện ra sản phẩm Z,Y,Z trong mục tương ứng?”. Nếu như ai đã dùng Netflix – một nền tảng giải trí, xem phim trực tuyến thì có thể nhận thấy giao diện luôn được tùy biến để đưa ra những gợi ý phim hay và phù hợp nhất với mỗi cá nhân. Nếu Netflix nhận diện được bạn là người yêu thích phim hành động thì sẽ bạn bắt gặp nhiều phim thể loại này hoặc những bộ phim liên quan phù hợp. Hay như một website hẹn hò là eharmony.com chọn cách hiển thị kết quả phù hợp tương ứng với từng người dùng, thay vì hiển thị như nhau đối với tất cả trong số họ.

Về hiệu quả của việc cá nhân hóa như trong những trường hợp kể trên là điều không cần phải bàn cãi. Tất nhiên để thực hiện được điều này thì không phải đơn giản mà cần có sự hỗ trợ từ việc xử lý dữ liệu lớn. Bằng việc phân tích và trích xuất dữ liệu từ hồ sơ khách hàng, kết hợp thêm các dữ liệu khác liên quan, hệ thống có thể trả về kết quả phù hợp nhất với một người và giúp website thực hiện cá nhân hóa tốt nhất.

5. Cải thiện thử nghiệm, cơ hội tự động hóa quy trình CRO

Trong quy trình tối ưu tỷ lệ chuyển đổi thông thường, một công cụ thử nghiệm có thể kiểm tra và giúp xác định đâu là yếu tố tốt cho website của chúng ta. Tuy nhiên có một điều hạn chế đó chính là nếu không có con người thì các công cụ sẽ không thể biết được phải thử nghiệm điều gì. Đầu vào của các công cụ bao giờ cũng phải xuất phát từ các giả thuyết mà theo cách thông thường thì giả thuyết không tự sinh ra mà chỉ có thể được sinh ra bởi con người. Với việc xử lý dữ liệu lớn, từ những nguồn dữ liệu khổng lồ ban đầu, một hệ thống có thể tự phân tích và đặt ra những giả thuyết, sau đó có thể ứng dụng các thử nghiệm để kiểm định các giả thuyết này một cách tự động, tự đánh giá kết quả. Thậm chí với sự tiếp cận lớn với dữ liệu, quy trình trên có thể đặt ra những giả thuyết vượt khỏi khả năng mà một đội ngũ làm CRO có thể nghĩ ra. Một viễn cảnh mà nhiều người làm công việc tối ưu ưu hóa tỷ lệ chuyển đổi nghĩ đến là gần như tất cả các công đoạn sẽ được tự động hóa. Trên thực tế thì điều này đã và đang trở thành sự thực.

Bỏ qua những mặt trái của dữ liệu lớn mang lại như: phá vỡ sự riêng tư cá nhân, ra quyết định không công bằng chỉ dựa trên xác suất và tiên đoán hoặc chế độ độc tài về dữ liệu trong tay các ông lớn thì suy cho cùng chính khách hàng cũng là những người hưởng lợi. Việc ứng dụng đó mang lại trải nghiệm tuyệt vời hơn trong quá trình mua sắm, mang đến những ưu đãi và sự phù hợp hơn dành cho người dùng.

Bài viết liên quan