ข้ามไปที่เนื้อหาหลัก

เข้าใจลูกค้าในการทำเว็บไซต์ และขายงานให้ได้

เว็บไซต์ นับว่าเป็นเครื่องมือที่สำคัญของทุกธุรกิจ ไม่ว่าคุณจะทำธุรกิจอะไร ต้องมีเว็บไซต์ 1 เว็บเป็นอย่างน้อย เพราะ ธุรกิจ ยุคใหม่ ไม่เหมือนยุคก่อน (รุ่นคุณปู่) นักธุรกิจส่วนใหญ่ ยังมีอายุน้อยและรนู้จักใช้เทคโนโลยีกันเป็นอย่างมาก วัยรุ่น เพราะคนยุคใหม่ คือคุนยุค Generation  สายพันธุ์ใหม่ ที่สามารถใช้เทคโนโลมาทำมาหากินได้ คือสามารถนำมาสร้างธุรกิจได้ บางคนอาจจะเอามทำเป็นอาชีพเสริม หรือ บางคนอาจจะเอามาทำเป็นอาชีพหลักได้เลย แต่ไม่ว่าธุรกิจอะไรก็ตาม ต้องมีการโปรโมท หรือแนะนำบริษัทผ่านทางเว็บไซต์ ถ้าบริษัทไหนไม่มีเว็บไซต์ หรือไม่มีข้อมูลบนหน้า Google หรือไม่มีข้อมูล บนSerch Engine แล้วล่ะก็ เตรียมตัวได้เลย (ต้องหา กลยุทธ์อย่างอื่นเพื่อสร้างยอดขายให้กับบริษัท)
วันนี้ จะแนะนำวิธีเบื้องต้น เพื่อมัดใจลูกค้า 
  1. เข้าใจลูกค้าให้ได้ว่าลูกค้าเราต้องการอะไร คือ เข้าใจคนเข้าชมเว็บส่วนใหญ่ว่าเมื่อมีคนเข้าเว็บเราแล้วคนที่เข้ามาเค้าต้องการอะไร และเค้าจะได้ข้อมูลอะไรกลับไป
  2. การโต้ตอบทันที เมื่อมีลูกค้าเข้ามาถาม หรือ ส่งอีเมล์เข้ามา อย่าปล่อยให้ลูกค้ารอนาน ถ้าเราโต้ตอบเร็ว ทันทีเราก็จะได้ใจลูกค้ามากขึ้น (ลูกค้าคือคนสำคัญ เค้าไม่ได้มารบกวนเรา เค้าเอาเงินมาให้เรา)
  3. ข้อมูลเนื้อหาที่ลงในเว็บไซต์ นั้น ต้องเป็นความจริง ไม่โกหก หลอกลวงลูกค้า เหมือนกันถ้าคุณต้องการลูกค้าดีๆมาใช้บริการ เราก็ควรทำแต่สิ่งดีๆกลับออกไปให้ลูกค้า ไม่ใช่ไปหลอกเอาเงินลูกค้า (ก่อนจะได้เงิน เราพูดทุกอย่าง เพื่อให้ลูกค้ายอดจ่ายตกลงว่าจ้างเรา พอได้เงินลูกค้าแล้วกลับไม่สนใจใจใยดี ส่งงานไม่ตรงเวลา ติดต่อแก้ไขงานไม่ได้บ้าง เว็บหมดอายุบ้าง ปลอยลูกค้าลอยแพ)
  4. มีความจริงใจแนะนำสินค้า และบริการดีๆ เพื่อให้ลูกค้าประทับใจ และ เราต้องให้ความจริงใจ ไม่โกหกหลอกลวง ไม่ทำงานออกไปด้วยความที่หวังว่าขอให้งานเสร็จเป็นพอ แต่เราไม่เคยคิดถึงสิ่งที่จะตามมาอีกหลายอย่าง (คิดก่อนตัดสินใจ)
  5. ดูแลบริการหลังการขายเป็นอย่างดี การรักษาลูกค้าเก่า นั้นเป็นเรื่องสำคัญมากสำหรับองค์กร

ความคิดเห็น

โพสต์ยอดนิยมจากบล็อกนี้

W3C คืออะไร ???

W3C W3C หรือ World Wide Web Consortium เป็นองค์กรระหว่างประเทศที่ทำงานด้านการพัฒนาเทคโนโลยีเว็บ นำโดยนาย ทิม เบิร์นเนอร์ ลี ก่อตั้งในปี 1994 และมีองค์กรสมาชิกมากกว่า 450 องค์กร ซึ่งรวมถึงองค์กรอย่าง Microsoft, Sun Microsystems และอื่น ๆ อีกมากมาย องค์กรนี้ ประกอบด้วยสถาบัน 3 สถาบันคือ MIT ในสหรัฐอเมริกา INRIA ในยุโรป และ Keio University ใน ญี่ปุ่น

มาตรฐานของ W3C มีอะไรบ้าง 1. HTML 4.0 – Hyper Text Markup Language 2. XML 1.0 – Extensible Markup Language 3. XHTML 1.0, 1.1 และ Modularization 4. CSS – Cascading Style Sheets 5. DOM 1 – Document Object Model Level 1
ประโยชน์ที่จะได้รับจากการทำตามมาตรฐานเว็บ 1. ประโยชน์ต่อซอฟแวร์หรือเครื่องจักร • Search engine สามารถค้นหาและทำดรรชนีข้อมูลในเว็บได้ง่ายและมีประสิทธิภาพมากขึ้น • เนื่องจากว่ามาตรฐานเป็นสิ่งที่บราวเซอร์ทุกชนิดเข้าใจ จึงทำให้สามารถเข้าใจโครงสร้างเอกสารเว็บได้ แม้ว่าจะไม่เข้าใจเทคโนโลยีมาตรฐานใหม่ ๆ แต่ก็ยังสามารถ แสดงผลได้ • นักพัฒนาที่ใช้มาตรฐานจะสามารถตรวจสอบความถูกต้องของเอกสาร (validate) ด้วยเครื่องมือที่มีมากมายในอินเตอร์เน็ท…

เว็บไซต์เกิดขึ้นได้ยังไง

HTML คืออะไร เกิดขึ้นได้ยังไง ??HTML หรือ HyperText Markup Language เป็นภาษา script ประเภทหนึ่ง ซึ่งใช้ทำ Web page เป็นงานหลัก ในระบบ World Wide Web ในแรกเริ่ม วัตถุประสงค์หลักของ HTML ถูกเสนอโดยนาย ทิม เบอร์เนอร์ส-ลี (Tim Berners-Lee) แห่งศูนย์ปฏิบัติการวิจัยทางอนุภาคฟิสิกส์ของยุโรป (CERN) ซึ่งตั้งอยู่ที่กรุงเจนีวา สวิตเซอร์แลนด์ ได้กำหนดไว้ว่า ปี ค.ศ. 1961 อินเตอร์เน็ตได้เกิดและเติบโตขึ้น พร้อมกับภาษาคอมพิวเตอร์และโปรโตคอล (Protocol) จำนวนมาก เพื่อรองรับกับ การเติบโตอย่างรวดเร็วของอินเตอร์เน็ต หนึ่งในภาษาคอมพิวเตอร์และโปรโตคอลนั้นคือ ภาษา HTML และ TCP/IP (Transmission Control Protocol/ Internet Protocol) ทั้งนี้เพราะ World Wide Web แม้จะเป็นเพียงส่วนหนึ่งของอินเตอร์เน็ต แต่ได้รับความนิยม อย่างสูง และรวดเร็ว โปรโตคอล HTTP (ซึ่งเป็นส่วนย่อยของโปรโตคอล TCP/IP) จึงได้รับการพัฒนาเพื่อสนับสนุนภาษา HTML ซึ่ง ใช้ในการจัดเก็บเอกสารบน World Wide Web


ภาษา HTML ในยุคแรกเริ่ม ถูกใช้เพื่อจัดทำรูปแบบตัวอักษรบนเอกสารประเภท Hypertext ความสามารถจึงยังคงจำกัดอยู่มาก เพียงทำได้แต่ การกำหนดรูปแบบ headin…

Robots.txt คืออะไร ทำไมต้องมี และสำคัญยังไง

Search Engine ฺฺส่ง Bot เข้ามาเยี่ยมยังเว็บไซต์ของคุณ สิ่งที่มันจะมองหาอันดับแรกๆ นอกจากลิงก์ หรือไฟล์ต่างๆ แล้วก็จะเป็นไฟล์ Robots.txt นี่ล่ะครับ เปรียบเสมือนเป็นคำสั่งบอกไปยัง Bot ว่าอนุญาตหรือไม่อนุญาตให้เก็บข้อมูลตรงไหนไปหรือให้มองข้ามข้อมูลที่ไหนไป ไม่ต้อง Index เก็บข้อมูล
robots.txt เป็นไฟล์ที่บอกให้ Search Engine เช่น google ,yahoo มาเก็บข้อมูลในหน้าเว็บไซต์ของเรา ซึ่งในทางปฏิบัติแล้ว มันจะเก็บทุกส่วนของเว็บไซต์เรา ซึ่งถ้าเราไม่ต้องการให้มันเรียกเก็บข้อมูลในส่วนไหน เราก็สามารถป้องกันได้ ด้วยไฟล์ robots.txt นี้เอง

โรบอต (Robot) เป็นโปรแกรมเก็บข้อมูลในอินเตอร์เน็ต ซึ่งบางครั้ง เรียกว่าสไปเดอร์ (Spider) หรือ ครอว์เลอร์(Crawler) จะทําหน้าที่รวบรวมไฟล์ HTML เพื่อมาเป็นข้อมูล สําหรับสร้างดัชนีค้นหา ให้กับ เสิร์จเอ็นจิน (Search Engine) โดยทั่วไปแล้ว โรบอตจะกลับมาที่เว็บไซต์ที่อ่านไปแล้ว เพื่อตรวจสอบ การเปลี่ยนแปลง ตามระยะเวลาที่กําหนด
ดังนั้นเราต้องสร้างไฟล์ robots.txt ขึ้นมา เพื่อกำหนดว่าจะให้ Robot เข้าไปยังโฟลเดอร์ไหนได้บ้าง
การสร้าง Robots.txt ก็ไม่มีขั้นตอนอะไรซับซ้อนมากครับ เพียงแ…