เวกเตอร์ — มุมมองการเรียนรู้ของเครื่อง
มุมมองทางฟิสิกส์ : เวกเตอร์คือลูกศรชี้ไปในอวกาศ สิ่งที่กำหนดเวกเตอร์คือความยาวและทิศทางที่ชี้ไป เวกเตอร์ในระนาบแบนจะมี 2 มิติ และเวกเตอร์ในพื้นที่กว้างจะมี 3 มิติ
มุมมองวิทยาการคอมพิวเตอร์ : เวกเตอร์เป็นลำดับรายการของตัวเลข ถ้าความยาวของรายการเท่ากับ 2 แล้วเวกเตอร์จะเป็น 2 มิติ
มุมมองทางคณิตศาสตร์ : เวกเตอร์ คือ วัตถุที่มีทั้งขนาดและทิศทาง ขนาดกำหนดขนาดของเวกเตอร์ มันถูกแทนด้วยเส้นที่มีลูกศร โดยที่ความยาวของเส้นคือขนาดของเวกเตอร์ และลูกศรแสดงทิศทาง เรียกอีกอย่างว่าเวกเตอร์แบบยุคลิดหรือเวกเตอร์เรขาคณิตหรือเวกเตอร์เชิงพื้นที่หรือเวกเตอร์ง่ายๆ

ข้อมูลเฉพาะของ พีชคณิตเวกเตอร์
Vector คือ โครงสร้างข้อมูลที่มีองค์ประกอบอย่างน้อย 2 ส่วน ซึ่งตรงข้ามกับสเกลาร์ สเกลาร์เป็นเพียงตัวเลข เราสามารถคิดว่ามันเหมือนกับค่าปกติที่เราใช้
พิกัดของเวกเตอร์คือคู่ของตัวเลขที่โดยทั่วไปจะให้คำแนะนำเกี่ยวกับวิธีหาค่าจากส่วนท้ายของเวกเตอร์นั้นจากจุดกำเนิดไปยังส่วนปลาย ในเวกเตอร์แต่ละพิกัดเป็นสเกลาร์

การบวกเวกเตอร์และการปรับขนาด


การรวมเชิงเส้นหมายถึงการบวกเวกเตอร์เข้าด้วยกัน สแปนของเวกเตอร์คือ s ของผลรวมเชิงเส้นของเวกเตอร์ทั้งหมด
ผลรวมเชิงเส้นของ V, W, U คือaV+ bW+ cU
สแปนของเวกเตอร์เหล่านี้คือเซตของผลรวมเชิงเส้นที่เป็นไปได้ทั้งหมด
สเกลาร์ที่เปลี่ยนแปลงอย่างอิสระสามตัวจะส่งผลให้เข้าถึงพื้นที่ 3 มิติเต็มรูปแบบ
หนึ่งในเวกเตอร์สามารถแสดงเป็นชุดค่าผสมเชิงเส้นของเวกเตอร์อื่น ๆ จากนั้นจะขึ้นอยู่กับเชิงเส้น
คุณ=aV+bW
หากเวกเตอร์แต่ละตัวเพิ่มมิติอื่นให้กับสแปน พวกมันก็จะเป็นอิสระเชิงเส้น
W!= aV (สำหรับทุกค่าของ a)
พื้นฐานของ ส เปซ เวกเตอร์คือเซตของเวกเตอร์อิสระเชิงเส้นที่กระจายเต็มสเปซ
Dot Product ของเวกเตอร์
ดอทโปรดักต์ระหว่าง 2 เวกเตอร์ A และ B กำลังฉาย w ไปยังเส้นที่ผ่านจุดกำเนิดและจุดสิ้นสุดของ A
ก · ข = | ก| × |B| × คอส(θ)
Dot product = (ความยาวของเส้นโครง A) * (ความยาวของเส้นโครง B)
- เวกเตอร์ 2 ตัวชี้ไปในทิศทางเดียวกัน ดอทโปรดัคเป็นบวก
- เวกเตอร์ 2 ตัวตั้งฉากกันแล้วดอทโปรดัคเป็นศูนย์
- เวกเตอร์ 2 ตัวชี้สวนทางกัน แล้วดอทโปรดัคเป็นลบ
ผลิตภัณฑ์ข้ามของเวกเตอร์
ผลคูณของเวกเตอร์สองตัวคือเวกเตอร์ตัวที่สามที่ตั้งฉากกับเวกเตอร์ดั้งเดิมสองตัว ขนาดของมันถูกกำหนดโดยพื้นที่ของสี่เหลี่ยมด้านขนานระหว่างพวกมันและทิศทางสามารถกำหนดได้โดยกฎมือขวา ครอสโปรดัคของเวกเตอร์สองตัวเรียกอีกอย่างว่าผลคูณของเวกเตอร์ เนื่องจากผลลัพธ์ของผลคูณครอสของเวกเตอร์เป็นปริมาณเวกเตอร์ ผลคูณไขว้จะมีความยาวเป็นศูนย์เมื่อเวกเตอร์aและbชี้ไปในทิศทางเดียวกันหรือตรงกันข้าม และถึงความยาวสูงสุดเมื่อเวกเตอร์aและbอยู่ในมุมฉาก
ก x ข= |ก| |ข| บาป θ

ผลิตภัณฑ์ข้ามให้เวกเตอร์เป็นผลลัพธ์
ความคล้ายคลึงกันของโคไซน์
ความคล้ายคลึงกันของโคไซน์วัดค่าโคไซน์ของมุมระหว่างเวกเตอร์ที่ไม่ใช่ศูนย์ 2 ตัวของพื้นที่ผลคูณภายใน การวัดความคล้ายคลึงกันนี้เกี่ยวข้องกับการวางแนวมากกว่าขนาด เวกเตอร์โคไซน์ 2 ตัวที่วางเรียงกันในทิศทางเดียวกันจะมีค่าความคล้ายคลึงกันเท่ากับ 1 ในขณะที่เวกเตอร์สองตัวที่วางเรียงกันในแนวตั้งฉากกันจะมีความคล้ายคลึงกันเท่ากับ 0 หากเวกเตอร์สองตัวตรงข้ามกันทางไดเมตริก หมายความว่าพวกมันมีทิศทางตรงกันข้ามกัน ดังนั้นการวัดความคล้ายคลึงกัน คือ -1

การทำให้เป็นมาตรฐานแบบเวกเตอร์
เวกเตอร์มีขนาด และเวกเตอร์ต่างๆ สามารถมีขนาดต่างกันได้ บางครั้งเราไม่สนใจขนาดของเวกเตอร์ แต่สนใจเฉพาะทิศทางเท่านั้น ถ้าเราไม่สนใจขนาดเลย เราก็ทำให้เวกเตอร์แต่ละตัวมีขนาดเท่ากันได้ เราทำสิ่งนี้โดยการหารเวกเตอร์แต่ละตัวด้วยขนาดของมัน จึงทำให้เวกเตอร์แต่ละตัวมีขนาด 1 หรือแปลงพวกมันเป็นเวกเตอร์หนึ่งหน่วย
พีชคณิตเวกเตอร์ในการเรียนรู้ของเครื่อง
- เครื่องจักรไม่สามารถอ่านข้อความหรือดูภาพเหมือนที่เราทำได้ พวกเขาต้องการอินพุตเพื่อแปลงหรือเข้ารหัสเป็นตัวเลข เวกเตอร์และเมทริกซ์แสดงอินพุต เช่น ข้อความและรูปภาพเป็นตัวเลข เพื่อให้เราสามารถฝึกและปรับใช้โมเดลของเราได้
- เป้าหมายของโครงการ ML ส่วนใหญ่คือการสร้างแบบจำลองที่ทำหน้าที่บางอย่าง ในโมเดลการเรียนรู้เชิงลึก สิ่งนี้สามารถทำได้ผ่านโครงข่ายประสาทเทียมที่เลเยอร์โครงข่ายประสาทเทียมใช้พีชคณิตเชิงเส้น (เช่น การคูณเมทริกซ์และเวกเตอร์) เพื่อปรับพารามิเตอร์ของคุณ นี่คือจุดที่คำจำกัดความทางคณิตศาสตร์ของเวกเตอร์เกี่ยวข้องกับ ML ซึ่งรวมถึงการเข้าใจสเปซเวกเตอร์และเหตุใดจึงสำคัญสำหรับ ML
- ผลลัพธ์ของโมเดล ML สามารถเป็นช่วงของเอนทิตีที่แตกต่างกันขึ้นอยู่กับเป้าหมายของเรา และมันสามารถเป็นเวกเตอร์ได้เช่นกัน ตัวอย่างเช่น โมเดล NLP ยอมรับข้อความแล้วส่งออกเวกเตอร์ (เรียกว่าการฝัง) แทนประโยค จากนั้นคุณสามารถใช้เวกเตอร์นี้เพื่อดำเนินการช่วงต่างๆ หรือเป็นอินพุตในโมเดลอื่น การดำเนินการที่คุณสามารถทำได้ ได้แก่ การรวมประโยคที่คล้ายกันเข้าด้วยกันในพื้นที่เวกเตอร์ หรือค้นหาความคล้ายคลึงระหว่างประโยคต่างๆ โดยใช้การดำเนินการ เช่น ความคล้ายคลึงกันของโคไซน์
- Dimensionality Reduction คือการแปลงข้อมูลที่มีมิติสูงเป็นข้อมูลที่มีมิติต่ำกว่า ในขณะที่เก็บข้อมูลส่วนใหญ่ไว้ในข้อมูล ซึ่งช่วยให้เราทำงานกับชุดข้อมูลที่ใหญ่ขึ้นและระบุคุณลักษณะที่เกี่ยวข้องมากที่สุดของข้อมูลได้
