วันอังคารที่ 10 กันยายน พ.ศ. 2562

งานที่ 5 Internet of Things

Internet of Things หรือ IoT คืออะไร


Internet of Things (IoT) คือ การที่อุปกรณ์อิเล็กทรอนิกส์ต่างๆ สามารถเชื่อมโยงหรือส่งข้อมูลถึงกันได้ด้วยอินเทอร์เน็ต โดยไม่ต้องป้อนข้อมูล การเชื่อมโยงนี้ง่ายจนทำให้เราสามารถสั่งการควบคุมการใช้งานอุปกรณ์อิเล็กทรอนิกส์ต่างๆ ผ่านทางเครือข่ายอินเตอร์เน็ตได้ ไปจนถึงการเชื่อมโยงการใช้งานอุปกรณ์อิเล็กทรอนิกส์ต่างๆ ผ่านทางเครือข่ายอินเตอร์เน็ตเข้ากับการใช้งานอื่นๆ จนเกิดเป็นบรรดา Smart ต่างๆ ได้แก่ Smart Device, Smart Grid, Smart Home, Smart Network, Smart Intelligent Transportation ทั้งหลายที่เราเคยได้ยินนั่นเอง ซึ่งแตกต่างจากในอดีตที่อุปกรณ์อิเล็กทรอนิกส์เป็นเพียงสื่อกลางในการส่งและแสดงข้อมูลเท่านั้น

กล่าวได้ว่า Internet of Things นี้ได้แก่การเชื่อมโยงของอุปกรณ์อัจฉริยะทั้งหลายผ่านอินเทอร์เน็ตที่เรานึกออก เช่น แอปพลิเคชัน แว่นตากูเกิลกลาส รองเท้าวิ่งที่สามารถเชื่อมต่อข้อมูลการวิ่ง ทั้งความเร็ว ระยะทาง สถานที่ และสถิติได้

นอกจากนั้น Cloud Storage หรือ บริการรับฝากไฟล์และประมวลผลข้อมูลของคุณผ่านทางออนไลน์ หรือเราเรียกอีกอย่างว่า แหล่งเก็บข้อมูลบนก้อนเมฆ เป็นอีกสิ่งหนึ่งที่เราใช้งานบ่อยๆแต่ไม่รู้ว่าเป็นหนึ่งในรูปแบบของ Internet of Things สมัยนี้ผู้ใช้นิยมเก็บข้อมูลไว้ในก้อนเมฆมากขึ้น เนื่องจากมีข้อดีหลายประการ คือ ไม่ต้องกลัวข้อมูลสูญหายหรือถูกโจรกรรม ทั้งยังสามารถกำหนดให้เป็นแบบส่วนตัวหรือสาธารณะก็ได้ เข้าถึงข้อมูลได้ทุกที่ทุกเวลาด้วยอุปกรณ์อิเล็กทรอนิกส์ใดๆผ่านเครือข่ายอินเตอร์เน็ต แถมยังมีพื้นที่ใช้สอยมาก มีให้เลือกหลากหลาย ช่วยเราประหยัดค่าใช้จ่ายได้อีกด้วย เนื่องจากเราไม่ต้องเสียเงินซื้ออุปกรณ์จัดเก็บข้อมูล เช่น ฮาร์ดไดร์ฟ หรือ Flash drive ต่างๆ

แนวคิด Internet of Things


เดิมมาจาก Kevin Ashton บิดาแห่ง Internet of Things ในปี 1999 ในขณะที่ทำงานวิจัยอยู่ที่มหาวิทยาลัย Massachusetts Institute of Technology หรือ MIT เขาได้ถูกเชิญให้ไปบรรยายเรื่องนี้ให้กับบริษัท Procter & Gamble (P&G)  เขาได้นำเสนอโครงการที่ชื่อว่า  Auto-ID Center ต่อยอดมาจากเทคโนโลยี RFID ที่ในขณะนั้นถือเป็นมาตรฐานโลกสำหรับการจับสัญญาณเซ็นเซอร์ต่างๆ( RFID Sensors) ว่าตัวเซ็นเซอร์เหล่านั้นสามารถทำให้มันพูดคุยเชื่อมต่อกันได้ผ่านระบบ Auto-ID ของเขา โดยการบรรยายให้กับ P&G ในครั้งนั้น Kevin ก็ได้ใช้คำว่า Internet of Things ในสไลด์การบรรยายของเขาเป็นครั้งแรก โดย Kevin นิยามเอาไว้ตอนนั้นว่าอุปกรณ์อิเล็กทรอนิกส์ใดๆก็ตามที่สามารถสื่อสารกันได้ก็ถือเป็น “internet-like” หรือพูดง่ายๆก็คืออุปกรณ์อิเล็กทรอนิกส์ที่สื่อสารแบบเดียวกันกับระบบอินเตอร์เน็ตนั่นเอง โดยคำว่า “Things” ก็คือคำใช้แทนอุปกรณ์อิเล็กทรอนิกส์ต่างๆเหล่านั้น

งานที่ 4 Augmented Reality (AR) and Virtual Reality (VR)



AR กับ VR มันคืออะไร ต่างกันยังไง


หลายคนคงจะสงสัยกับคำว่า AR และ VR ว่ามันคืออะไร แล้ว AR vs VR ต่างกันยังไงกันนะ
Augmented reality หรือ AR คือ การรวม สภาพแวดล้อมจริง กับ วัตถุเสมือน เข้าด้วยกันในเวลาเดียวกัน โดยวัตถุเสมือนที่ว่านั้น อาจจะเป็น ภาพ, วิดิโอ, เสียง, ข้อมูลต่างๆที่ประมวลผลมาจากคอมพิวเตอร์, มือถือ, เทปเล็ต, หรืออุปกรณ์สวมใส่ขนาดเล็กต่างๆ และทำให้เราสามารถตอบสนองกับสิ่งที่จำลองนั้นได้
ตัวอย่างของการใช้งาน AR ก็คือ
เกม AR ต่างๆ เช่น Pokemon Go
28286906571_813c6e6d82_b
การเรียนการสอน
App_iSkull,_an_augmented_human_skull
โฆษณา
Augmented-reality-ads
Virtual reality หรือ VR ก็คือ เป็นการจำลองสภาพแวดล้อมจริงเข้าไปให้เสมือนจริง นั้นเอง โดยพยายามทำให้เหมือนจริงโดยผ่านการรับรู้ของเราไม่ว่าจะเป็น การมองเห็น เสียง การสัมผัส หรือแม้กระทั้งกลิ่น และทำให้เราสามารถตอบสนองกับสิ่งที่จำลองนั้นได้
ตัวอย่างของการใช้งาน VR ก็คือ
การจำลองการขับเครื่องบิน
VR-Helm
การประยุกต์ใช้ในการศึกษาต่างๆ
AC89-0437-20_a
ความแตกต่างของ VR และ AR นั้นก็คือ VR นั้นจะตัดขาดเราออกจากสถาพแวดล้อมปัจจุบันเพื่อเข้าไปสู่สภาพแวดล้อมที่จำลองขึ้นมาใหม่ทั้งหมด แต่ AR จะพยายามรวบรวมหรือผสานระหว่างสภาพแวดล้อมจริงๆ ณ ขณะนั้นเข้ากับวัตถุที่จำลองขึ้นมานั้นเอง
จะเห็นได้ว่าจากความแตกต่างระหว่าง VR และ AR ทำให้การนำไปประยุกต์ใช้งานนั้นแตกต่างกัน โดย VR นั้นจะเน้นที่ตัดขาดออกจากโลกจริงเข้าไปอยู่ในโลกเสมื่อนอย่างเต็มรูปแบบ ส่วน AR นั้นจะเน้นไปที่การผสานรวบรวมระหว่างวัตถุเสมือนรอบตัวเราเข้ากับสภาพแวดล้อมจริงๆ ณ ขณะนั้น นั้นเอง

งานที่ 3 Quantum Computing

Quantum Computing คืออะไร?
Quantum Computing ก็คือระบบคอมพิวเตอร์ที่เปลี่ยนจากการทำงานบนแผงวงจร มาใช้คุณสมบัติพิเศษของอะตอมแทน โดยจากเดิมที่คอมพิวเตอร์ปัจจุบันจะแทนค่าข้อมูลด้วย Bit อันประกอบด้วยตัวเลข 0 กับ 1 ทีละตัวแล้วนำไปประกอบกัน แต่ระบบ Quantum Computing จะใช้อะตอมที่มีคุณสมบัติของ Quantum Bit หรือ Qubit สามารถประมวลผลเป็นตัวเลข 0 หรือ 1 พร้อมกันได้
คุณสมบัติดังกล่าวทำให้แต่ละ Qubit ทำงานได้เร็วกว่า Bit อย่างมหาศาล นอกจากนี้ Qubit ยังสามารถสื่อสารกับอะตอมที่เป็น Qubit ด้วยกันได้โดยไม่ต้องผ่านสื่อกลาง ทำให้ Qubit สามารถประมวลผลร่วมกันได้ราบรื่นและรวดเร็ว รวมถึงรองรับงานแบบ Multitasking ได้ง่ายกว่า โดยเมื่อปี 2015 มีประกาศจาก Google ว่า Quantum Computer ที่พวกเขาพัฒนาขึ้น มีความเร็วมากกว่า PC ทั่วไปถึง 100 ล้านเท่า!!

แต่อย่างไรก็ตามระบบ Quantum Computing  ก็มีข้อจำกัดอยู่ เช่นตัว Qubit ที่มีขนาดเล็กกว่าอะตอมและเปราะบาง หากมีสิ่งรบกวนเพียงเล็กน้อย Qubit ดังกล่าวก็จะหายไปพร้อมข้อมูลภายใน อีกทั้งยังไม่พบวิธีการคัดลอก Qubit เพื่อสำรองข้อมูลโดยสมบูรณ์ ยังไม่นับเรื่องการเก็บรักษา Qubit ให้พร้อมใช้งานซึ่งต้องอยู่ในอุณหภูมิศูนย์สมบูรณ์หรือ -273.15 องศาเซลเซียส

Quantum Computing ทำอะไรได้บ้าง?
จริงๆ แล้วแนวคิดเรื่องการนำ Quantum มาใช้กับคอมพิวเตอร์ มีมาตั้งแต่ยุคปี 1980 แต่เนื่องจากมีความซับซ้อนทางฟิสิกส์ค่อนข้างสูงมาก รวมถึงต้องทำงานวิจัยในสภาพแวดล้อมที่เหมาะสม การวิจัยจึงยังอยู่ในวงจำกัด ต่อมาเมื่อเทคโนโลยีพัฒนาขึ้นระบบ Quantum Computing จึงได้รับการสานต่อโดยบริษัทไอทียักษ์ใหญ่และประเทศเศรษฐกิจชั้นนำ จนมีแนวโน้มว่าเราอาจจะได้ใช้คอมพิวเตอร์ที่ประมวลผลโดย Qubit ภายใน 10 ปีที่จะถึงนี้ และด้วยความเร็วมากกว่าคอมพิวเตอร์แบบดั้งเดิมที่เราใช้กันอย่างเทียบไม่ติด มันจึงเข้ามา Disrupt การใช้งานคอมพิวเตอร์ทุกวันนี้เปลี่ยนไป ลองมาดูตัวอย่างการนำระบบ Quantum Computing ไปใช้ในด้านต่างๆ
  • พลิกรูปแบบ Online Security - ปัจจุบัน ระบบ Online Security จะทำงานด้วยการเข้ารหัสจำนวนมาก แน่นอนว่า Quantum Computing สามารถถอดรหัสทั้งหมดได้อย่างง่ายดาย แต่หากว่าเรานำ Quantum Computing มาเป็นเครื่องประมวลผลรหัสแทนก็อาจจะได้แม่กุญแจและกุญแจที่แข็งแรงกว่าที่เคย
  • ลับสมองให้ AI - พลังประมวลผลอันรวดเร็วจากระบบ Quantum Computing ที่สามารถเร่งกระบวนการเรียนรู้ของ AI หรือปัญญาประดิษฐ์ให้เร็วกว่าที่เป็นอยู่ได้ ทำให้ AI ถูกพัฒนาเพื่อแก้ปัญหาเฉพาะหน้าได้ดียิ่งขึ้น
  • ทดลองทางเคมีเพื่อพัฒนายารักษาโรค - การสร้างยารักษาโรคแต่ละชนิดต้องอาศัยการคำนวณอันละเอียดและแม่นยำ Quantum Computing ไม่เพียงแต่ทำได้รวดเร็ว แต่ยังสามารถคำนวณค่าต่างๆ พร้อมกัน อีกทั้งในอนาคตการออกแบบยารักษาโรคจะลงลึกไปถึงในระดับวิเคราะห์ DNA เพื่อผลิตยาที่เหมาะกับแต่ละคน ประสิทธิภาพของเทคโนโลยี Qubit สามารถตอบโจทย์ทั้งด้านความแม่นยำและเวลาเพื่อรักษาอาการเจ็บป่วยได้ทันท่วงที
  • พัฒนาการพยากรณ์อากาศให้แม่นยำยิ่งขึ้น - ภัยพิบัติทางธรรมชาติก่อความเสียหายแก่ชีวิตและทรัพย์สินมากมาย แต่ด้วยเครื่องมือปัจจุบัน การพยากรณ์อากาศแทบจะเป็นเกมเดาสุ่ม แม้เราจะมีความรู้แต่การคำนวณของเรากลับไม่รวดเร็วพอที่จะป้องกันเหตุได้ เราจึงจำเป็นต้องใช้ประสิทธิภาพของ Quantum Computing เพื่อปรับปรุงการคาดการณ์ให้แม่นยำยิ่งขึ้น โดยปัจจุบัน หน่วยงานพยากรณ์อากาศแห่งชาติของสหราชอาณาจักรได้นำเทคโนโลยี Quantum Computing มาใช้เพื่อจำลองแนวโน้มสภาพอากาศในปัจจุบัน ทำให้เรามีข้อมูลมากพอจะคาดเดาอากาศได้แม่นยำขึ้น
  • ช่วยจัดการคมนาคมให้ใช้ได้เต็มประสิทธิภาพ - ไม่ว่าจะบนฟ้า บนพื้นดิน หรือบนผิวน้ำ ความเร็วของ ระบบ Quantum Computing สามารถนำมาใช้ประเมินเส้นทางให้เราเดินทางได้ประสิทธิภาพสูงสุด ช่วยประหยัดเวลา ลดค่าใช้จ่าย เพิ่มความปลอดภัยให้ผู้ใช้ทางบนวิถีการจราจรอันซับซ้อนขึ้นทุกวัน
แม้ทุกวันนี้ เราส่วนใหญ่ยังคงคุ้นชินในประสิทธิภาพของคอมพิวเตอร์แบบดั้งเดิมอยู่ และคอมพิวเตอร์ในรูปแบบ Quantum Computing เองก็ยังไม่หลุดออกจากห้องแล็ปมาอยู่ในมือเรา แต่ความสามารถของมันก็เริ่มเข้ามาประชิดเราเรื่อยๆ รอเพียงแต่วันที่เราทุกคนจะได้สัมผัสมันจริงๆ Digital Ventures จะนำเรื่องราวของ Quantum Computing ในแง่มุมที่น่าสนใจมาแชร์ให้เห็นภาพมากขึ้น สามารถติดตามกันได้ที่ Blog ของเรา

งานที่ 2 Blockchain Technology

Blockchain คืออะไร ???

Blockchain เป็นเทคโนโลยีที่มีคนพูดถึงมากว่าจะเป็นตัวเปลี่ยนโลกเหมือนที่อินเทอร์เน็ตเปลี่ยนโลกในยุค 1990 ซึ่งมีการเปรียบเทียบว่า Blockchain ตอนนี้สภาพเหมือนอินเทอร์เน็ตตอนเริ่มต้น ซึ่งภาคการเงินจะปล่อยผ่านไปไม่ได้ ต้องมีคนศึกษาเรื่องนี้ เพื่อเป็นการลองทำดูว่า เอา Blockchain มาใช้กับเรื่องต่างๆ ได้อย่างไร แม้ว่าวันนี้อาจจะยังไม่มีการประยุกต์ใช้ในลักษณะที่เห็นเป็นรูปธรรมก็ตาม
ภาพจาก fsroundtable.org
แล้ว Blockchain คืออะไร … ?
Blockchain คือ ระบบโครงข่ายในการเก็บบัญชีธุรกรรมออนไลน์ ซึ่งมีลักษณะเป็นเครือข่ายใยแมงมุม ที่เก็บสถิติการทำธุรกรรมทางการเงิน และสินทรัพย์ชนิดอื่นๆ อีกในอนาคต โดยไม่มีตัวกลาง คือสถาบันการเงิน หรือสำนักชำระบัญชี ระบบ Blockchain จะไม่มีตัวกลางอย่างที่เคยเป็นมา ยกตัวอย่างการทำธุรกรรมด้วย Bitcoin จะมีรหัส Token สร้างขึ้นมาเพื่อสื่อสารกับ Blockchain และทำการตรวจสอบว่า Bitcoin นั้นๆ มีความน่าเชื่อถือหรือไม่ก่อนที่จะทำธุรกรรมให้สำเร็จต่อไป
เท่ากับว่า Blockchain เป็นระบบโครงข่ายในการทำธุรกรรมต่างๆ ซึ่งตัดตัวกลางอย่างสถาบันการเงินที่มีอยู่ในโลกปัจจุบันออกไป ซึ่งทำให้ต้นทุนการทำธุรกรรมถูกลง และอาจจะส่งผลให้สถาบันการเงินที่เป็นตัวกลาง รวมไปถึงสำนักชำระบัญชีต่างๆ ไม่จำเป็นต้องมีอีกในอนาคตได้เลย หากเทคโนโลยีนี้เข้ามาแทนที่ได้อย่างสมบูรณ์
ขณะที่ Blockchain ไม่เพียงมีบทบาทอยู่แค่การทำธุรกรรมทางการเงินเท่านั้น หากแต่ยังอาจถูกนำไปใช้ในงานอื่นๆ เช่น การเก็บสถิติการเลือกตั้งให้มีความโปร่งใสมากขึ้น การให้ยืม Cloud Storageระหว่างกัน, บริการ co-locationระบบ Peer to Peer Lending และอื่นๆ  อีกมากมาย ซึ่งแม้แต่เหล่าธนาคารเองก็ตัดสินใจเข้าลงทุนในการทำ Blockchain มากขึ้นเรื่อยๆ โดยล่าสุด เหล่าสถาบันการเงินอย่างธนาคาร Citibank ตลาดหลักทรัพย์ NASDAQ รวมไปถึงบริษัท VISA ก็ได้เข้าลงทุนในบริษัทบล็อกเชนชั้นนำอย่าง Chain.com เพื่อแนวทางรักษาตลาดเทคโนโลยีนี้เช่นกัน
แนวคิด Blockchain เริ่มกลับมาเป็นกระแสที่ต้องจับตามมองอีกครั้ง พร้อมมีการพัฒนาใหม่ๆ ไปสู่การใช้งานที่มากกว่าการทำธุรกรรม Bitcoin ในอดีตที่ไม่ได้รับการยอมรับมากนัก ผนวกรวมกับกระแสการเพิ่มขึ้นของอุปกรณ์ที่ใช้แนวคิด อินเทอร์เน็ต ออฟ ธิงส์ (Internet of Things) จำเป็นต้องมีการจัดการ ดูแลอย่างการรักษาความปลอดภัยระหว่างอุปกรณ์ต่างๆ และความจำเป็นที่จะต้องบันทึกฐานข้อมูลของการติดต่อต่างๆ เหล่านั้น ทำให้เทคโนโลยีอย่าง Blockchain ที่ให้ความสำคัญกับความเป็นส่วนบุคคลจะกลายมาเป็นตัวช่วยสำคัญของการใช้งานดังกล่าว โดยลดขั้นตอนระบบการทำงานให้เรียบง่ายขึ้น มีการยืดหยุ่นที่สูงขึ้น รวมทั้งการตอบสนองความต้องการของลูกค้าได้อย่างรวดเร็ว
แต่กระนั้นความสำเร็จของ Blockchain จะสามารถพลิกสถานะการให้บริการด้านการเงินโลกดิจิทัลได้หรือไม่ การหาพาร์ตเนอร์ที่มีประสบการณ์ในการทำงานกับระบบความซับซ้อน และความหลากหลาย ในทุกระดับการใช้งานไม่ว่าเล็ก หรือใหญ่ เป็นหัวใจสำคัญของการจัดการกับปัญหานี้ได้อย่างดีที่สุด ซึ่งถ้าย้อนกลับไปเมื่อ 5 ปีที่ผ่านมาไอเดียทางธุรกิจเหล่านี้ ต่างเคยถูกมองว่าเป็นเรื่องที่ไม่น่าจะเกิดขึ้นได้จริง หากแต่ปัจจุบันเรื่องเช่นนี้ได้กลายเป็นตัวกำหนดผู้ชนะในอนาคต ซึ่งทั้งหมดนี้สามารถเกิดขึ้นได้ด้วยการมองว่าซอฟต์แวร์คือตัวแปรสำคัญของการเปลี่ยนแปลงของโลกยุคใหม่นั่นเอง  

เทคโนโลยี คืออะไร

         เทคโนโลยี (Technology) คือ การใช้ความรู้ เครื่องมือ ความคิด หลักการ เทคนิค ความรู้ ระเบียบวิธี กระบวนการตลอดจน ผลงานทางวิทยาศาสตร์ทั้งสิ่งประดิษฐ์และวิธีการ มาประยุกต์ใช้ในระบบงานเพื่อช่วยให้เกิดการเปลี่ยนแปลงในการทำงานให้ดียิ่ง ขึ้นและเพื่อเพิ่มประสิทธิภาพและประสิทธิผลของงานให้มีมากยิ่งขึ้น

การนำเทคโนโลยีมาใช้กับงานในสาขาใดสาขาหนึ่งนั้นเทคโนโลยี มีความสำคัญ ประการ คือ
          1.ประสิทธิภาพ (Efficiency) เทคโนโลยีจะช่วยให้การทำงานบรรลุผลตามเป้าหมายได้ เที่ยงตรงและรวดเร็ว
          2.ประสิทธิผล (Productivity) เกิดผลผลิตเต็มที่ ได้ประสิทธิผลสูงสุด
          3.ประหยัด (Economy) ประหยัดทั้งเวลาและแรงงาน ลงทุนน้อยแต่ได้ผลมาก
ความสำคัญของเทคโนโลยี
          1.เป็นพื้นฐานปัจจัยจำเป็นในการดำเนินชีวิตของมนุษย์
          2.เป็นปัจจัยหลักที่จะมีส่วนร่วมในการพัฒนา
          3.เป็นเรื่องราวของมนุษย์ และธรรมชาติ

          ในช่วงสองทศวรรษทีผ่านมา วิทยาศาสตร์ และ เทคโนโลยี ได้มีบทบาทสำคัญเพิ่มขึ้นจนสามารถสร้างนวัตกรรม (Innovation) ซึงก็คือ การเรียนรู้ การผลิตและ การใช้ประโยชน์จากความคิดใหม่ ให้เกิดผลทั้งทางเศรษฐกิจ สังคม การเมือง สิ่งแวดล้อม และวัฒนธรรม เทคโนโลยีทำให้สังคมโลกทีเ รียบง่าย กลายเป็นสังคมที่มีการดำรงชีวิตที สลับซับซ้อนมากขึ้น ก่อให้เกิดกระแสแห่งความไร้พรมแดน หรือกระแสโลกาภิวัฒน์ ทีเข้ามาสู่ทุกประเทศอย่าง รวดเร็ว จากความก้าวหน้าของเทคโนโลยีสารสนเทศ อันเป็นการผสมผสาน ศาสตร์ เข้าด้วยกันได้แก่ อิเล็อทรอ นิกส์ โทรคมนาคม และข่าวสาร (Electronics , Computer ,Telecomunication and Information หรือเรียกย่อๆ ว่า ECTI ) ทำให้สังคมโลกสามารถสื่อสารกันได้ทุกแห่งทั่วโลกอย่างรวดเร็ว สามารถรับรู้ข่าวสาร ความเคลื อนไหวต่างๆ ได้พร้อมกัน สามารถบริหารจัดการและตัดสินใจได้ทุกขณะเวลา การลงทุนค้าขาย และธุรกรรมการเงินทได้อย่างรวดเร็ว ดังนั้นเทคโนโลยี กำลังทำให้โลกใบนี้ เล็กลง” ทุกขณะ
ประโยชน์ของเทคโนโลยี
     -ช่วยยกระดับคุณภาพชีวิตของมนุษย์ แถมยังช่วยพัฒนาระบบอารายธรรมโดยทางอ้อมอีกด้วย
เรื่องราวจากการเริ่มต้นเทคโนโลยี ยาวนานจนบัดนี้ทำให้มนุษย์เราแทบไม่สามารถแยกจากเทคโนโลยีไปได้แล้ว
    -ช่วยให้มนุษย์มีความสะดวกสบายขึ้น
    -ช่วยให้เราทันสมัย
    -ช่วยประหยัดเวลา
    -ช่วยในการทำงาน
บทบาทหน้าที่ของเทคโนโลยี
        ความก้าวหน้าทางด้านวิทยาศาสตร์และเทคโนโลยี ทำให้มีการพัฒนาคิดค้นสิ่งอำนวยความสะดวกสบายต่อการดำชีวิตเป็นอันมาก เทคโนโลยีได้เข้ามาเสริมปัจจัยพื้นฐานการดำรงชีวิตได้เป็นอย่างดี เทคโนโลยีทำให้การสร้างที่พักอาศัยมีคุณภาพมาตรฐาน สามารถผลิตสินค้าและให้บริการต่าง ๆ เพื่อตอบสนองความต้องการของมนุษย์มากขึ้น เทคโนโลยีทำให้ระบบการผลิตสามารถผลิตสินค้าได้เป็นจำนวนมากมีราคาถูกลง สินค้าได้คุณภาพ เทคโนโลยีทำให้มีการติดต่อสื่อสารกันได้สะดวก การเดินทางเชื่อมโยงถึงกันทำให้ประชากรในโลกติดต่อรับฟังข่าวสารกันได้ตลอดเวลา

วิวัฒนาการเทคโนโลยี (Evolution of Technolgy)
          เทคโนโลยี มีการเปลี่ยนแปลงหรือพัฒนาเมื่อเวลาผ่านไปขั้นตอนการเปลี่ยนนแปลงขึ้นอยู่กับกระบวนการทางวิวัฒนาการ (Evolution) ของระบบหรือเครื่องมือนั้นๆ ดังนั้นคำว่าวิวัฒนาการของเทคโนโลยี (Evolution of Technology) จึงหมายถึง ความเปลี่ยนแปลงที่เกิดขึ้นในระบบหรือเครื่องมือที่เกิดขึ้นอย่างซับซ้อนและมีการเปลี่ยนแปลงตามลำดับอย่างต่อเนื่องอันมีสาเหตุมาจากปัจจัยต่างๆ

งานที่ 1 Artificial Intelligence

ปัญญาประดิษฐ์  (AI : Artificial Intelligence)  คือ

เครื่องจักร(machine) ที่มีฟังก์ชันทีมีความสามารถในการทำความเข้าใจ เรียนรู้องค์ความรู้ต่างๆ อาทิเช่น การรับรู้  การเรียนรู้ การให้เหตุผล และการแก้ปัญหาต่างๆ  เครื่องจักรที่มีความสามารถเหล่านี้ก็ถือว่าเป็น ปัญญาประดิษฐ์  (AI : Artificial Intelligence) นั่นเอง
เพราะฉะนั้นจึงสามารถกล่าวได้ว่า AI ถือกำเนิดขึ้นเมื่อเครื่องจักรมีความสามารถที่จะเรียนรู้นั่นเอง  ซึ่ง AI ก็ถูกแบ่งออกเป็นหลายระดับตามความสามารถหรือความฉลาด  โดยจะวัดจากความสามารถในการ ให้เหตุผล การพูด และทัศนคติของ AI ตัวนั้นๆ เมื่อเปรียบเทียบกับมนุษย์อย่างเราๆ
AI ถูกจำแนกเป็น 3 ระดับตามความสามารถหรือความฉลาดดังนี้
1 ) ปัญญาประดิษฐ์เชิงแคบ (Narrow AI ) หรือ ปัญญาประดิษฐ์แบบอ่อน (Weak AI) : คือ  AI ที่มีความสามารถเฉพาะทางได้ดีกว่ามนุษย์(เป็นที่มาของคำว่า Narrow(แคบ) ก็คือ AI ที่เก่งในเรื่องเเคบๆหรือเรื่องเฉพาะทางนั่นเอง)  อาทิ เช่น AI ที่ช่วยในการผ่าตัด(AI-assisted robotic surgery)  ที่อาจจะเชี่ยวชาญเรื่องการผ่าตัดกว่าคุณหมอยุคปัจจุบัน  แต่แน่นอนว่า AIตัวนี้ไม่สามารถที่จะทำอาหาร ร้องเพลง หรือทำสิ่งอื่นที่นอกเหนือจากการผ่าตัดได้นั่นเอง  ซึ่งผลงานวิจัยด้าน AI ณ ปัจจุบัน ยังอยู่ที่ระดับนี้
2 ) ปัญญาประดิษฐ์ทั่วไป (General AI )  : คือ AI ที่มีความสามารถระดับเดียวกับมนุษย์ สามารถทำทุกๆอย่างที่มนุษย์ทำได้และได้ประสิทธิภาพที่ใกล้เคียงกับมนุษย์
3) ปัญญาประดิษฐ์แบบเข้ม (Strong AI ) : คือ AI ที่มีความสามารถเหนือมนุษย์ในหลายๆด้าน
จะเห็นได้ว่าวิทยาการของมนุษย์ปัจจุบันอยู่ที่จุดเริ่มต้นของ AI เพียงเท่านั้น
ปัจจุบัน ได้มีการนำ AI มาใช้ในอุตสาหกรรมจำนวนมาก  โดย "แมคคินซีย์แอนด์คอมปะนี (McKinsey & Company) "  (บริษัทที่ปรึกษาด้านการบริหารชั้นนำของโลก  )  ได้กล่าวไว้ว่า " AI มีศักยภาพในการทำเงินได้ถึง 600 ล้านดอลล่าร์สหรัฐในการขายปลีก  สร้างรายได้มากขึ้น 50 เปอร์เซนต์ในการธนาคารเมื่อเทียบกับการใช้เทคนิควิเคราะห์เเบบอื่นๆ  และสร้างรายได้มากกว่า 89 เปอร์เซนต์ ในการขนส่งและคมนาคม "
ยิ่งไปกว่านั้น หากฝ่ายการตลาดขององค์กรต่างๆ หันมาใช่ AI จะเป็นการเพิ่มศักยภาพให้กับการทำงานด้านการตลาดอย่างมาก เพราะว่า AI สามารถที่จะทำงานที่ซ้ำซากได้อย่างอัตโนมัติ ส่งผลให้ตัวแทนจำหน่าย สามารถที่จะโฟกัสไปที่การสนทนากับลูกค้า อาทิเช่น บริษัทนามว่า " Gong " มีบริการที่เรียกว่า "conversation intelligence"  , โดยทุกๆครั้งที่ตัวแทนจำหน่ายต่อสายคุยโทรศัพท์กับลูกค้า AIจะทำหน้าที่ในการบันทึกเสียงเเละวิเคราะห์ลูกค้าในขณะเดียวกัน มันสามารถแนะนำได้ว่าลูกค้าต้องการอะไร ควรจะคุยเเบบไหน ถือเป็นการซื้อใจลูกค้าอย่างหนึ่ง
     โดยสรุป , ปัญญาประดิษฐ์หรือ AI เป็นเทคโนโลยีที่ล้ำสมัยที่สามารถรับมือกับปัญหาที่ซับซ้อนเกินกว่าที่มนุษย์จะสามารถรับมือได้  เเละ AI ยังเป็นเครื่องมือที่สามารถทำงานที่ซ้ำซากน่าเบื่อแทนมนุษย์ได้อย่างดีเยี่ยม ช่วยให้เราสามารถมีเวลาไปโฟกัสงานที่สำคัญและสามารถสร้างมูลค่าได้มากกว่า นอกจากนี้การประยุกต์ใช้ AI ในระดับอุตสาหกรรม ยังช่วยลดต้นทุนเเละเพิ่มรายได้มหาศาล
ประวัติย่อของ AI
AI เป็นคำยอดฮิตที่ปัจจุบัน แม้ว่ามันไม่มันจะไม่ใช่คำที่เพิ่งถูกบัญญัติขึ้นมาใหม่แต่อย่างใด ในปี 1956 , กลุ่มของผู้เชี่ยวชาญแนวหน้าจากหลายๆวงการได้ร่วมกันทำงานวิจัยเกี่ยวกับ AI มีผู้นำทีมได้แก่ John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM) และ Claude Shannon (Bell Telephone Laboratories) โดยมีจุดประสงค์หลักของงานวิจัย คือ  การค้นหามุมมองและหลักการต่างๆที่ใช้การเรียนรู้อย่างครอบคลุมเพื่อที่จะนำมาประยุกต์ใช้ให้เครื่องจักรสามารถเรียนรู้ได้เช่นกัน
โดยมีเนื้อหาของโครงการมีดังนี้
1.) คอมพิวเตอร์อัตโนมัติ (Automatic Computers)
2.) จะสามารถเขียนโปรเเกรมคอมพิวเตอร์โดยใช้ภาษาคอมพิวเตอร์ได้อย่างไร ( How Can a Computer Be Programmed to Use a Language?)
3.) โครงข่ายประสาทเทียม (Neural Nets )
4.) การพัฒนาด้วยตนเอง (Self-improvement )
องค์ความรู้เหล่านี้เป็นองค์ความรู้พื้นฐานที่ทำให้คอมพิวเตอร์มีความฉลาดมากขึ้น และยังทำให้ความคิดที่จะการสร้าง AI มีความเป็นไปได้มากยิ่งขึ้น
ชนิดของ AI (Type of Artificial Intelligence)                                                                                 AI ถูกแบ่งออกเป็น 3 sub field  ได้แก่
1) ปัญญาประดิษฐ์ (Artificial Intelligence)
2) การเรียนรู้ของเครื่อง (Machine learning)
3) การเรียนรู้เชิงลึก (Deep Learning)
Machine Learning                                                                                                            คือ ศาสตร์ของการศึกษา วิธีการคิด ( algorithm ) ที่ใช้ในการเรียนรู้ (learn) จากตัวอย่าง (example) และ ประสบการณ์ (experience)  โดยมีพื้นฐานมาจากหลักการที่เชื่อว่า ทุกสิ่งอย่างมีรูปแบบหรือแบบแผน ( pattern ) ที่สามารถบ่งบอกความเป็นไปของสิ่งนั้นๆ ซึ่งเราสามารถที่จะนำแบบแผนนี้ มาประยุกต์ใช้เพื่อทำการทำนายถึงความเป็นไปในอนาคตได้ ( prediction ) อาทิเช่น การใช้ machine learning ในการทำนายราคาหุ้นในอนาคต จากข้อมูลกราฟในอดีตและปัจจุบัน
Deep Learning
เป็นซับเซตของ Machine Learning  โดย Deep Learning นั้นไม่ได้หมายความว่า มันคือการทำความเข้าใจองค์ความรู้( knowledge)ในเชิงลึก แต่หมายถึงการที่เครื่องจักร(machine)ใช้หลายๆเลเยอร์(layer)ที่แตกต่างกัน ในการทำความเข้าใจหรือเรียนรู้ข้อมูล โดยความซับซ้อนของโมเดล(model) ก็แปรผันตามจำนวนของเลเยอร์(layer)   ยกตัวอย่างเช่น  บริษัทกูเกิล ใช้ LeNet model ในการวิเคราะห์และทำความเข้าใจภาพ (Image recognition)  โดยมีการใช้เลเยอร์ทั้งหมด 22 เลเยอร์  โดยใน Deep learning , จะมีเฟสของการเรียนรู้ ( learning phase )ที่ถูกสร้างขึ้นโดย Neural Network ซึ่งอาจเรียกได้ว่าเป็นสถาปัตยกรรมของ layer ที่แต่ละ layer ซ้อนทับกันอยู่ ( stack )

AI vs. Machine Learning

ในปัจจุบัน อุปกรณ์(device)ที่เราใช้ในชีวิตประจำวัน ไม่ว่าจะเป็นสมาร์ทโฟน หรือ เเม้กระทั้งอินเทอร์เน็ตก็มีการประยุกต์ใช้ AI  ในหลายครั้งๆ เวลาที่บริษัทใหญ่ๆจะประกาศให้โลกรับรู้ถึงนวัตกรรมใหม่สุดของพวกเขา พวกเขามักจะใช้คำว่า AI หรือ machine learning เสมือนว่ามันเป็นคำที่ใช้เเทนกันได้ แต่อันที่จริงเเล้ว AI กับ machine learning นั้นมีข้อแตกต่างกันบางประการ
" AI- artificial intelligence คือ วิทยาศาสตร์ของการฝึกฝน (train) เครื่องจักร (machine ) โดยมีจุดประสงค์เพื่อแก้ไขปัญหาของมนุษย์  "  ถูกนิยามเมื่อ 1950s  เมื่อเหล่านักวิทยาศาสตร์เริ่มให้ความสนใจกับปัญหาที่ว่า "คอมพิวเตอร์สามารถแก้ไขปัญหาด้วยตัวเองได้อย่างไร" (how computers could solve problems on their own.)
ถ้าจะให้อธิบายอย่างง่ายๆ  AI ก็คือ คอมพิวเตอร์ที่มีคุณสมบัติและความสามารถคล้ายมนุษย์อีกทั้งยังสามารถทำงานได้อย่างลงตัว (seamlessly) หรือ อาจเรียกได้ว่า AI ก็คือ วิทยาศาสตร์ของการเลียนแบบทักษะของมนุษย์
 Machine learning เป็นเพียงซับเซ็ตของ AI ที่จะเจาะจงไปที่การฝึกฝน(train)เครื่องจักร(machine) โดย machine ก็จะพยายามหารูปแบบ(pattern)ต่างๆของข้อมูล(input data )ที่ถูกใส่เข้ามาเพื่อในการ train , กล่าวโดยสรุป เราไม่จำเป็นต้องเขียนโปรแกรมหรือสร้าง modelขึ้นมาเอง สิ่งที่เราต้องทำก็ให้ข้อมูลหรือตัวอย่างกับตัว machine   เพราะว่า machine จะพยายามสร้าง model ที่ใช้วิเคราะห์ pattern ของข้อมูลที่ได้จากการ train โดยตัวของมันเอง ( เป็นที่มาของคำว่า machine learning นั่นเอง )
แล้ว AI ถูกใช้ที่ไหนบ้าง
ปัจจุบัน ได้มีการนำ AI มาประยุกต์ใช้อย่างกว้างขวาง  อาทิเช่น
การนำเอา AI ไปประยุกต์ใช้ในงานที่ซ้ำซ้อน ยกตัวอย่างเช่น AI ในกระบวนการผลิตต่างๆ  ซึ่งเป็นงานต้องใช้ความปราณีต เเละ ทำเหมือนเดิมตลอดเวลา(จนกว่าจะมีการเปลี่ยนแปลงกระบวนการผลิต ) การนำ AI มาประยุกต์ใช้จะช่วยเพิ่มผลผลิต เเละ ยังลดตวามผิดพลาดในการผลิต เพราะว่า AI  ไม่จำเป็นต้องพักและไม่มีความรู้สึกเหนื่อยล้าอีกทั้งยังไม่มีความรู้สึกเบื่อหน่ายต่องานที่ทำ
การนำเอา AI มาพัฒนาผลิตภัณฑ์(product)ที่มีอยู่แล้ว ก่อนจะถึงยุคของ machine learning , product มักจะอยู่ในรูปแบบของโค้ดเเต่เพียงอย่างเดียว อยากได้อะไร มีฟังก์ชันเเบบไหน ก็ต้องลงมือทำขึ้นมาเองทั้งสิ้น ( hard-code rule ) . ลองนึกถึง facebook สมัยก่อน ที่เวลาเราอัพโหลดรูปภาพ เราต้องเสียเวลามานั่งแท็กเพื่อนทีละคนๆ แต่ปัจจุบัน facebook มี AI ที่ช่วยในการแท็กรูปได้อย่างอัตโนมัติ
ปัจจุบัน AI ได้ถูกนำมาประยุกต์ใช้ในเกือบทุกอุตสาหกรรม ตั้งแต่ระดับการตลาด(marketing) ไปถึงระดับห่วงโซ่อุปทาน(supply chain ) , การเงิน (finance ) , การกระบวนการทำอาหาร (food-processing sector )  จากผลสำรวจของบริษัท McKinsey  พบว่า การให้บริการให้การเงิน (financial services ) และการสื่อสารด้วยเทคโนโลยีล้ำสมัย ( high tech communication ) เป็นด้านที่มีการใช้ AI เป็นระดับแนวหน้า เมื่อเทียบกับด้านอื่นๆ
ทำไม AI ถึงเป็นเทรนด์ที่มาแรงในปัจจุบัน
neural network เป็องค์ความรู้ที่เกิดขึ้นตั้งเเต่ปี 1990s จากผลงานวิจัยของคุณ Yann LeCun  แต่อย่างไรก็ตาม neural network ก็เพิ่งมาเป็นที่นิยมเมื่อปี 2012    ทำไมถึงเป็นเช่นนั้น ? เราจะอธิบายให้ฟังถึง 3 ปัจจัย ดังต่อไปนี้
1 ) Hardware
2) Data
3) Algorithm
Machine learning นั้นก็เป็นศาสตร์แห่งการทดลองและลงมือทำศาสตร์ เราจำเป็นต้องหาข้อมูลและวิธีการต่างๆจำนวนมากเพื่อมาทำการ train  หลังจากที่กระแสการใช้งานอินเทอร์เน็ตถูกแผร่หลาย ข้อมูลต่างๆก็สามารถเข้าถึงได้ง่ายขึ้น นอกจากนี้เรื่อง CPU หรือ GPU ที่ใช้ในการประมวลผลก็สำคัญในการใช้ train และ test model ต่างๆ ซึ่งปัจจุบันก็มี GPU gaming  ที่มีเสปคที่สูง วางขายอยู่ตามร้านค้าทั่วไปอีกต่างหาก เช่น GPU gaming ของ NVIDIA และ AMD
Hardware
ตลอด 20 ปีที่ผ่านมา , CPU ของเราสามารถ train  deep-learning model ที่เป็น model ขนาดเล็กๆผ่านlaptop ก็จริง แต่อย่างไรก็ตาม มันไม่เพียงพอต่อการประมวลผลของ deep-learning model  ที่ใช้สำหรับ computer vision หรือ deep learning  ซึ่งต้องยกความดีความชอบแก่ผู้ผลิต GPU อย่าง NVIDIA และ AMD ที่สร้าง GPU รุ่นใหม่ที่สามารถทำการคำนวณหรือประมวลผลแบบคูขนานได้ ( parallel computation ) ซึ่งสามารถช่วยในการยกระดับความเร็วในการประมวลผลอย่างมาก
ตัวอย่างเช่น NVIDIA TITAN X  ใช้เวลาเพียง 2 วันในการ train model " ImageNet " ซึ่ง CPU แบบดั่งเดิมใช้เวลาถึงหลายสัปดาห์  , นอกเหนือจากนี้ บริษัทใหญ่ๆหลายบริษัทเลือกที่จะใช้ cluster of GPU ในการ train deep learning  model โดยใช้เป็น NVIDIA Tesla K80 เพราะว่าจะช่วยลดต้นทุนในการดูแลรักษาศูนย์ข้อมูล (data center ) อีกทั้งยังได้ประสิทธิภาพที่ดียิ่งขึ้น
Data
ถ้าเปรียบ neural network เป็นรถยนต์ (model นั้นๆ)   ข้อมูล(data) ก็เปรียบเสมือนน้ำมันของ model ที่สามารถทำให้มันขับเคลื่อนได้ ปราศจากน้ำมัน (data) รถยนต์ (model )ก็ไม่สามารถทำอะไรได้เลย ปัจจุบัน เทคโนโลยีใหม่ๆได้ทำลายขีดจำกัดของการเก็บข้อมูลแบบเดิมๆ เราไม่จำเป็นต้องเก็บข้อมูลขนาดใหญ่ๆไว้ที่ data center อีกต่อไป
การปฎิวัติอินเทอร์เน็ต (internet revolution ) ทำให้สามารถที่จะเก็บและแจกจ่ายข้อมูลแหล่งข้อมูลมากมายเพื่อนำข้อมูลมาเข้า machine learning algorithm , ถ้าคุณมีประสบการณ์กับแอพลิเคชันที่เกี่ยวข้องกับการจัดการรูปภาพอย่าง Flickr หรือ Instagram  คุณคงจะได้เห็นศักยภาพของ AI มาบ้าง เพราะว่า แอพพลิเคชันเหล่านี้ต้องจัดการกับการรูปภาพที่สามารถแท็กได้เป็นหลายๆล้านรูป ซึ่งรูปๆเหล่านี้ก็สามารถถูกนำมาใช้ในการ train model  เพื่อทำการรับรู้และแยกแยะ  (recognize) วัตถุต่างๆบนรูป ปราศจากการนำข้อมูลมาจัดเก็บก่อนแบบ
การผสมผสานระหว่าง AI และ  ข้อมูลที่ดี (data) ก็เปรียบเสมือนทองคำดีๆนี่เอง เพราะว่า AI เป็นวิธีการใช้ข้อมูลได้อย่างตอบโจทย์ผู้คนได้มากที่สุด แต่ไม่ว่าบริษัทไหนก็สามารถจะมีเทคโนโลยี หรือ AI ที่ความสามารถทัดเทียมกันได้ (เทคโนโลยีเป็นสิ่งที่สามารถซื้อได้) เพราะฉะนั้นเเล้ว ข้อมูลจึงเป็นตัวแปรสำคัญมากๆ เพราะฉะนั้น บริษัทหรือองค์กรที่มีข้อมูลที่เป็นประโยชน์มากกว่าย่อมกุมความได้เปรียบ
เชื่อไหมครับว่า ข้อมูลถูกสร้างขึ้นใหม่โดยเฉลี่ยประมาณ 2.2 exabytes หรือ  2.2ล้าน gigabytes  ในแต่ละวัน  จึงไม่แปลกที่เหล่าบริษัททั้งหลายจะแสวงหาแหล่งข้อมูเหล่านี้มาใช้ให้เกิดประโยชน์  ( นำข้อมูลมา train model เพื่อหา pattern เพื่อ predict เรื่องนั้นๆ )
Algorithm
ถึงแม้ว่า  hardware จะมีประสิทธิภาพดีกว่าเดิมหลายเท่าตัว และข้อมูลก็สามารถเข้าถึงได้ง่าย , อย่างไรก็ตาม machine learning algorithm ก็ยังเป็นสิ่งที่ต้องให้ความสำคัญอย่างมาก ทำไมถึงเป็นเช่นนั้น ? ลองภาพนึกถึง กระบวนการคิดหรือ algorithm ที่ผิดตั้งแต่การใช้ตรรกะ หรือ algorithm ที่ทำงานเเบบซ้ำซ้อนจนเกินไป ต่อให้เรามีข้อมูลหรือ hardware ที่ทรงพลังมากแค่ไหน ก็คงสร้าง model ที่มีความแม่นยำสูงๆไม่ได้ , โดย algorithm ของ neural network ที่ถูกพัฒนาให้แม่นยำมากยิ่งขึ้นนี่แหละเป็นหนึ่งในเหตุผลที่ทำให้ neural network ได้รับการยอมรับ โดย neural network แบบดั่งเดิมนั้นเป็นเพียง algorithm ที่ถูกสร้างจากการคูณ matrix แบบง่ายๆ
ยกตัวอย่าง algorithm ที่มีการใช้ใน AI อย่างแพร่หลายในปัจจุบัน เช่น progressive learning algorithm เป็น algorithm ที่ทำให้คอมพิวเตอร์เรียนรู้อยู่ตลอดเวลา ซึ่งจะช่วยในการรับมือกับปัญหาต่างๆได้อย่างดี เช่น การหาข้อผิดพลาดของระบบ และ การสร้าง chatbot ที่สามารถโต้ตอบกับเราได้ราวกับว่าคุยกับคนจริงๆ  (เพราะมันเรียนรู้วิธีการโต้ตอบมาจากผู้คนที่เคย chat กับมันในอดีต )
สรุป
Artificial intelligence กับ machine learning เป็น 2 คำที่ทำให้คุณอาจสับสนได้ในตอนแรก แต่เราคาดหวังว่าเมื่อคุณได้ทำความเข้าใจเนื่้อหาของบทความ คุณจะสามารถแยกแยะ 2 คำนี้ออกจากกันได้  Artificial intelligence (AI) เป็นวิทยาศาสตร์ในการฝึกฝนเครื่องจักร( train machine )ให้มีทักษะคล้ายคลึงกับมนุษย์ โดยวิธีในการ train machine ก็มีอยู่หลากหลายวิธีการเช่นกัน ในยุคเริ่มต้นของ AI เราใช้วิธีการที่เรียกว่า hard-coded programs หรือ การเขียนโค้ดที่เป็นตรรกะทุกสิ่งอย่างที่คาดว่า machine จะเผชิญกับมัน (ให้ลองนึกภาพถึงหุ่นยนต์ที่ถูกเขียนโปรแกรมมาด้วยการใช้ if-else condition เป็นหลักพัน condition แน่นอนว่าหุ่นยนต์อาจจะสามารถทำงานได้อย่างดีภายใต้คำสั่งนั้นๆ เเต่เมื่อ ระบบมีความซับซ้อนมากขึ้น หรือ เราอยากจะเพิ่มเติมฟังก์ชันไหน ถึงตอนนั้นเราจะสามารถทำได้อย่างยากลำบาก เพราะต้องจัดการกับโค้ดจำนวนมาก ) เพื่อที่จะแก้ปัญหานี้ จึงเกิดเป็นไอเดียของ machine learning หรือก็คือให้ machine เรียนรู้หรือปรับตัว (train) ให้เข้ากับข้อมูลหรือสภาพแวดล้อมที่ได้รับ (input data ) และ feature ที่สำคัญที่สุดที่จะนำมาซึ่ง AI ที่มีประสิทธิภาพ คือการมีข้อมูลที่เพียงพ่อต่อการ train ยกตัวอย่างเช่น AI สามารถเรียนรู้ได้หลากหลายภาษาตราบใดที่มีคำศัพท์ที่เพียงพอที่จะนำมา train
นอกจากนี้ AI ยังเป็นเทคโนโลยีที่ล้ำสมัยที่มีนักลงทุนจำนวนมากยอมที่จะเสี่ยงวางเงินหลักหลายล้านดอลลาร์ในการลงทุนใน startup หรือ project ที่เกี่ยวข้องกับ AI อีกทั้ง McKinsey  ได้ทำการประเมินว่า AI จะทำการขับเคลื่อนทุกๆอุตสาหกรรมให้เติบโตในอัตรา 10 - 99 เปอร์เซนต์ เป็นอย่างน้อย

วันอังคารที่ 19 มีนาคม พ.ศ. 2562

mini projector ไฟวิ่ง 5 แบบพร้อมจอ LCD แสดงชื่อ

ไฟวิ่ง 5 แบบพร้อมจอ LCD แสดงชื่อ














 อุปกรณ์

1.สวิท 2 ตัว

2.ตัว R 470 โอห์ม 8 ตัว
   ตัว R 10K โอห์ม 2 ตัว
  
3.LED  10 ตัว

4.IC 877A  1 ตัว 

5.LCD  1  ตัว

6.VR 50K 1 ตัว

7.คาปาซิเตอร์ 22pf  2 ตัว

8.คริสตัล 4m 1 ตัว



Code


char *text = "T"; ประกาศตัวแปร text เก็บข้อความ T
        char *text1 = "A"; ประกาศตัวแปร text1 เก็บข้อความ A
        char *text2 = "R"; ประกาศตัวแปร text3 เก็บข้อความ R

        char *text3 = "P"; ประกาศตัวแปร text4 เก็บข้อความ P
        char *text4 = "K";
        char *text5 = "S";
        char *text6 = "I";
        char *text7 = "1";

void main() {
  TRISC = 0xFF; พอตc ทั้งหมดเปน input
  TRISB = 0;  พอต b ทังหมดเปน output
  TRISD = 0; พอต D ทั้งหมดเปน output
  PORTC = 1 ; พอต b ทังหมดส่งค่าเปน 1
  PORTD = 0 ;             // พอต D ทั้งหมดส่งค่าเปน 0
  Lcd_Init(&PORTB);         // ฟังชั่น lcd กำหนดใช้พอต b
  Lcd_Cmd(Lcd_CLEAR);       //ฟังชั่นล้างหน้าจอ 
  Lcd_Cmd(Lcd_CURSOR_OFF);  //ปิดเคอร์เซอ์


  while(1)  วนลูป
  {

    if(PORTC.F1==0)  ถ้า พอตc ขา1 เปน 0
  {
         while(1) { ลูป
           Lcd_Out(1, 2, text);  แสดงข้อความ  text แถว1 หลัก2


            PORTD.F0 =1; พอต d ขา0 ส่งค่าเปน 1
                 delay_ms(400);
                 PORTD.F0 =0; พอต d ขา0 ส่งค่าเปน 0
                 delay_ms(100);  หน่วงเวลา 100 มิลลิเซค
                 PORTD.F1 =1; พอต d ขา1 ส่งค่าเปน 1

                 delay_ms(400);
                  PORTD.F1 =0;  
                 delay_ms(100);
                 Lcd_Out(1, 3, text1);  เเสดงข้อความของ text1 แถว1 หลัก3 
                 PORTD.F2 =1 ;
                 delay_ms(400);
                  PORTD.F2 =0 ;

                 delay_ms(100);
                 PORTD.F3  =1 ;
                 delay_ms(400);
                  PORTD.F3  =0 ;
                 delay_ms(100);
                  Lcd_Out(1, 4, text3);
                 PORTD.F4 =1 ;
                 delay_ms(400);
                  PORTD.F4 =0 ;
                 delay_ms(100);
                 PORTD.F5=1 ;
                 delay_ms(400);
                 PORTD.F5=0 ;
                 delay_ms(100);
                 Lcd_Out(1, 6, text4);
                 PORTD.F6 =1 ;
                 delay_ms(400);
                   PORTD.F6 =0 ;
                 delay_ms(100);
                 PORTD.F7=1 ;
                 delay_ms(400);
                  PORTD.F7=0 ;
                 delay_ms(100);
                 Lcd_Out(1, 7, text5);
                   PORTD.F7=1 ;   //1
                 delay_ms(400);
                  PORTD.F7=0 ;
                 delay_ms(100);
                  PORTD.F6 =1 ;
                 delay_ms(400);
                   PORTD.F6 =0 ;
                 delay_ms(100);
                  PORTD.F5=1 ;
                 delay_ms(400);
                  Lcd_Out(1, 8, text6);
                 PORTD.F5=0 ;
                 delay_ms(100);
                PORTD.F4 =1 ;
                 delay_ms(400);
                  PORTD.F4 =0 ;
                 delay_ms(100);
                  PORTD.F3  =1 ;
                 delay_ms(400);
                  PORTD.F3  =0 ;
                    Lcd_Out(1, 9, text7);
                 delay_ms(100);
                   PORTD.F2 =1 ;
                 delay_ms(400);
                  PORTD.F2 =0 ;
                 delay_ms(100);
                 PORTD.F1 =1;
                 delay_ms(400);
                  PORTD.F1 =0;
                 delay_ms(100);
                 PORTD.F0 =1;
                 delay_ms(400);
                 PORTD.F0 =0;
                  Lcd_Out(1, 10, text8);
                  PORTD.F0 =1;
                 delay_ms(400);
                 PORTD.F1 =1;
                 delay_ms(400);
                 PORTD.F2 =1 ;
                 delay_ms(400);
                 PORTD.F3  =1 ;
                 delay_ms(400);
                 PORTD.F4 =1 ;
                  Lcd_Out(1, 11, text9);
                 delay_ms(400);
                 PORTD.F5=1 ;
                 delay_ms(400);
                 PORTD.F6 =1 ;
                 delay_ms(400);
                 PORTD.F7=1 ;
                 delay_ms(400);
                 Lcd_Out(1, 12, text10);
                 PORTD.F0 =0;
                 delay_ms(400);
                 PORTD.F1 =0;
                 delay_ms(400);
                 PORTD.F2 =0 ;
                 delay_ms(400);
                 PORTD.F3  =0 ;
                 delay_ms(400);
                 PORTD.F4 =0;
                  Lcd_Out(1, 13, text11);
                 delay_ms(400);
                 PORTD.F5=0;
                 delay_ms(400);
                 PORTD.F6 =0 ;
                 delay_ms(400);
                 PORTD.F7=0 ;
                 delay_ms(400);
                   Lcd_Out(1, 15, text12);
                    PORTD.F6 =1 ;
                 delay_ms(400);
                   PORTD.F6 =0 ;
                 delay_ms(100);
                   PORTD.F1 =1;
                 delay_ms(400);
                  PORTD.F1 =0;
                 delay_ms(100);
                  PORTD.F3  =1 ;
                 delay_ms(400);
                  Lcd_Out(1, 16, text13);
                  PORTD.F3  =0 ;
                 delay_ms(100);
                  PORTD.F5=1 ;
                 delay_ms(400);
                 PORTD.F5=0 ;
                 delay_ms(100);
                  PORTD.F2 =1 ;
                 delay_ms(400);
                  PORTD.F2 =0 ;
                 delay_ms(100);
                  PORTD.F4 =1 ;
                 delay_ms(400);
                  PORTD.F4 =0 ;
                 delay_ms(100);
                  PORTD.F7=1 ;
                 delay_ms(400);
                  PORTD.F7=0 ;
                 delay_ms(100);
                   }
                    delay_ms(400);
                      Lcd_Cmd(Lcd_CLEAR); ฟังชั่นล้างหน้าจอ
                 while(PORTC.F1==0);  พอต c ขา 1 เท่ากับ 0
  }

             }
              }





วันศุกร์ที่ 15 มีนาคม พ.ศ. 2562

โครงงานที24

โครงงานที24


code

void beep(void);
 main()
{
 int time1,time2;
 TRISB = 0xF0;

   while(1)
  {
    PORTB.F1=0;
    PORTB.F2=0;
    PORTB.F3=0;
  while(~PORTB.F4&PORTB.F5&PORTB.F6)
  {
    PORTB.F1=1;
    PORTB.F2=0;
    PORTB.F3=0;
    for(time1=0;time1<20000;time1++)
    {
    while(PORTB.F4&~PORTB.F5&PORTB.F6)
    {
     PORTB.F1=1;
     PORTB.F2=1;
     PORTB.F3=0;
     for(time2=0;time2<10000;time2++)
     {
     while(PORTB.F4&PORTB.F5&~PORTB.F6)
            {
             PORTB.F1=1;
             PORTB.F2=1;
             PORTB.F3=1;
             beep();
             Delay_ms(1000);
            }
            }
         }
         }
       }
      }
  }
void beep(void)
{
  int i ;

  for(i=0;i<200;i++)
   {
     PORTB.F0=1;
     Delay_us(200);
     PORTB.F0=0;
     Delay_us(200);
   }

}