ข้ามไปที่เนื้อหาหลัก

เขียนเว็บ ด้วย Bootstrap 5 มีอะไรใหม่

 

Bootstrap 5

ปัจจุบัน Bootstrap5 เปิดให้ดาวน์โหลดแล้วเรียบร้อยนะครับ เรามาดูกันดีกว่าว่าตัวใหม่ จะมีฟีเจอร์อะไรมาเสริมทัพการใช้งานของเรากันบ้าง

  • ยังคงใช้ระบบ 12 grid เช่นเดิม แต่ปรับการจัดการ grid เป็น flexbox และ grid layout
  • มาพร้อมกับไฟล์ที่คลีนมากขึ้น อัพเดท Javascript ใหม่ทั้งหมด และไม่มีการใช้ jQuery
  • Update class และแก้ไข CSS บางอย่าง
  • มีไอค่อนสวยๆ มากกว่า 700 ไอค่อน
  • เพิ่ม Palette สีหลากหลายเฉดสี เพื่อรองรับการงาน UI ในหลากหลายรูปแบบ
  • เปลี่ยนมาใช้ icon แบบ svg แทน font icon
  • เพิ่มรูปแบบ Form ให้รองรับการใช้งานอีกมากมาย, custom ได้มากกว่าเวอร์ชั่น 4
  • Sticky top รองรับ responsive
  • ไม่รองรับ IE110
  • ตัวอย่างทำเว็บไซต์

ความเปลี่ยนแปลงของ Bootstrap ในเวอร์ชั่น 5 แตกต่างจากเวอร์ชั่น 4 อย่างไร

ความคิดเห็น

โพสต์ยอดนิยมจากบล็อกนี้

W3C คืออะไร ???

W3C W3C หรือ World Wide Web Consortium เป็นองค์กรระหว่างประเทศที่ทำงานด้านการพัฒนาเทคโนโลยี เว็บไซต์ นำโดยนาย ทิม เบิร์นเนอร์ ลี ก่อตั้งในปี 1994 และมีองค์กรสมาชิกมากกว่า 450 องค์กร ซึ่งรวมถึงองค์กรอย่าง Microsoft, Sun Microsystems และอื่น ๆ อีกมากมาย องค์กรนี้ ประกอบด้วยสถาบัน 3 สถาบันคือ MIT ในสหรัฐอเมริกา INRIA ในยุโรป และ Keio University ใน ญี่ปุ่น มาตรฐานของ W3C มีอะไรบ้าง 1. HTML 4.0 – Hyper Text Markup Language 2. XML 1.0 – Extensible Markup Language 3. XHTML 1.0, 1.1 และ Modularization 4. CSS – Cascading Style Sheets 5. DOM 1 – Document Object Model Level 1 ประโยชน์ที่จะได้รับจากการทำตามมาตรฐาน เว็บ 1. ประโยชน์ต่อซอฟแวร์หรือเครื่องจักร • Search engine สามารถค้นหาและทำดรรชนีข้อมูลในเว็บได้ง่ายและมีประสิทธิภาพมากขึ้น • เนื่องจากว่ามาตรฐานเป็นสิ่งที่บราวเซอร์ทุกชนิดเข้าใจ จึงทำให้สามารถเข้าใจโครงสร้างเอกสารเว็บได้ แม้ว่าจะไม่เข้าใจเทคโนโลยีมาตรฐานใหม่ ๆ แต่ก็ยังสามารถ แสดงผลได้ • นักพัฒนาที่ใช้มาตรฐานจะสามารถตรวจสอบความถูกต้องของเอกสาร (validate

Robots.txt คืออะไร ทำไมต้องมี และสำคัญยังไง

Search Engine ฺฺส่ง Bot เข้ามาเยี่ยมยัง เว็บไซต์ ของคุณ สิ่งที่มันจะมองหาอันดับแรกๆ นอกจากลิงก์ หรือไฟล์ต่างๆ แล้วก็จะเป็นไฟล์ Robots.txt นี่ล่ะครับ เปรียบเสมือนเป็นคำสั่งบอกไปยัง Bot ว่าอนุญาตหรือไม่อนุญาตให้เก็บข้อมูลตรงไหนไปหรือให้มองข้ามข้อมูลที่ไหนไป ไม่ต้อง Index เก็บข้อมูล robots.txt  เป็นไฟล์ที่บอกให้ Search Engine เช่น google ,yahoo มาเก็บข้อมูลในหน้าเว็บไซต์ของเรา ซึ่งในทางปฏิบัติแล้ว มันจะเก็บทุกส่วนของเว็บไซต์เรา ซึ่งถ้าเราไม่ต้องการให้มันเรียกเก็บข้อมูลในส่วนไหน เราก็สามารถป้องกันได้ ด้วยไฟล์  robots.txt  นี้เอง โรบอต (Robot) เป็นโปรแกรมเก็บข้อมูลในอินเตอร์เน็ต ซึ่งบางครั้ง เรียกว่าสไปเดอร์ (Spider) หรือ ครอว์เลอร์(Crawler) จะทําหน้าที่รวบรวมไฟล์ HTML เพื่อมาเป็นข้อมูล สําหรับสร้างดัชนีค้นหา ให้กับ เสิร์จเอ็นจิน (Search Engine) โดยทั่วไปแล้ว โรบอตจะกลับมาที่เว็บไซต์ที่อ่านไปแล้ว เพื่อตรวจสอบ การเปลี่ยนแปลง ตามระยะเวลาที่กําหนด ดังนั้นเราต้องสร้างไฟล์  robots.txt  ขึ้นมา เพื่อกำหนดว่าจะให้ Robot เข้าไปยังโฟลเดอร์ไหนได้บ้าง การสร้าง Robots.txt ก็ไม่มีขั้นตอนอะ

บริษัท โอพี เคมิคอล เทคโนโลยี จำกัด

  ด้วยความมุ่งมั่นในการดำเนินธุรกิจเพื่อส่งเสริมงานวิทยาศาสตร์ต่างๆ ไม่ว่าจะเป็น สารเคมี ชีวภาพ ชีวเคมี รวมถึงสนับสนุนภาคอุตสาหกรรม ให้มีการทดสอบ ทดลอง และผลิตสินค้าที่มีคุณภาพมีความน่าเชื่อถือ สนับสนุนนวัตกรรมใหม่ๆ เพื่อพัฒนาสังคมและเป็นมิตรต่อสิ่งแวดล้อม เราพร้อมเป็นผู้ช่วยแนะนำ ให้คำปรึกษาทางด้านวิทยาศาสตร์ด้วยทีมงานมาตรฐาน พร้อมดูแล บริการ และแนะนำข้อมูลสินค้า จำหน่ายสินค้าทางวิทยาศาสตร์     สารเคมี  กรด เบส เกลือ ตัวทำละลาย สำหรับห้องปฏิบัติการ และอุตสาหกรรม   อาหารเลี้ยงเชื้อ   ชุดทดสอบ/วิเคราะห์สำเร็จรูป ทางเคมี, ชีวเคมี, น้ำเสีย ต่างๆ   อุปกรณ์วิทยาศาสตร์ เครื่องแก้ว และพลาสติก คุณภาพ   สารมาตรฐาน Reference material (RM), Certified reference material (CRM)   อุปกรณ์เพื่อความปลอดภัย           บริการของเรา ยินดีบริการทุกเรื่อง ในห้องปฏิบัติการ  งานวิจัย เเละอุตสาหกรรม ลดค่าใช้จ่ายในการทำงาน REDUCING YOUR OPERATION COST ผลิตภัณฑ์มีมาตรฐาน คุณภาพสูง HIGH QUALITY PRODUCT WITH REASONABLE COST มีประสบการณ์ด้านการ จำหน่ายสารเคมี   ทั่วประเทศมายาวนานด้วยราคายุติธรรม เชี่ยวชาญการจัดหาเค