This aimed to 1) develop an effective augmented reality (AR) media integrated with the metaverse to enhance English phonics and communication skills. 2) To evaluate English pronunciation skills using augmented reality media integrated with the metaverse, and 3) To assess English communication skills through interactions within the metaverse. The sample group comprised 120 Grade 4 students from two classrooms in the first semester of the 2024 academic year, selected through cluster random sampling and divided into experimental and control groups. The research instruments included AR media sets, media quality assessment forms, phonics tests, and English communication skills assessment forms, administered before and after the learning intervention. Data analysis employed mean (x ̅), standard deviation (S), t-tests for independent samples, and one-way analysis of variance (Multivariate Analysis of Variance: One-Way MANOVA) to compare mean score differences between the experimental and control groups. Results indicated that the overall quality of the AR media kit with the metaverse was rated at a very high level (x ̅= 4.80, S.D. = 0.12). Evaluating specific aspects showed that the content quality was at the highest level (x ̅= 4.92, S.D. = 0.07), while the media production technique also rated highly (x ̅ = 4.70, S.D. = 0.17). Furthermore, the English pronunciation and communication skills of the Grade 4 students using the AR media with the metaverse were significantly higher after the intervention compared to before, the overall quality of the AR media integrated with the metaverse was rated at the highest level (x ̅= 4.80, S.D. = 0.12). For individual aspects, content quality was rated at the highest level (x ̅= 4.92, S.D. = 0.07), and media production techniques were also rated at the highest level (x ̅ = 4.70, S.D. = 0.17). Comparing the mean scores of English pronunciation and communication skills between the two groups, it was found that the experimental group using AR media integrated with the metaverse demonstrated significantly higher English pronunciation skills than the control group (F(1, 89) = 3261.422, p = 0.001, Partial η² = 0.98). Additionally, the experimental group exhibited significantly higher English communication skills than the control group (F(1, 89) = 4239.365, p = 0.001, Partial η² = 0.98). These results aligned with the research hypothesis that "Grade 4 students’ English pronunciation and communication skills post-learning with AR media integrated with the metaverse would significantly improve compared to their pre-learning levels at the .05 level of significance.
ภาษาอังกฤษในฐานะภาษาสำคัญของโลก ภาษาอังกฤษปัจจุบันคือภาษานานาชาติ เป็นภาษากลางของโลก ภาษาอังกฤษเป็นภาษากลางของมนุษยชาติ เป็นภาษาที่มนุษย์บนโลกใช้ติดต่อระหว่างกันเป็นหลักไม่ว่าแต่ละคนจะใช้ภาษาอะไรเป็นภาษาประจำชาติ เมื่อต้องติดต่อกับคนอื่นที่ต่างภาษาต่างวัฒนธรรมกันทุกคนจำเป็นต้องใช้ภาษาอังกฤษเป็นหลักอยู่แล้ว ด้วยเหตุนี้ทุกคนทุกชาติทุกภาษาจึงบรรจุวิชาภาษาอังกฤษเป็นภาษาที่สองรองลงมาจากภาษาประจำชาติ เป็นแกนหลักของหลักสูตรการศึกษาทุกระดับตั้งแต่ปฐมวัยไปจนถึงการศึกษาตลอดชีวิต การใช้เทคโนโลยี AR ทำให้กระบวนการเรียนรู้เป็นที่น่าสนใจมากขึ้น ผู้เรียนเรียนรู้ภาษาอังกฤษผ่านประสบการณ์ที่สมจริงและสนุกสนาน เพิ่มความน่าสนใจในการเรียนรู้ การให้ผู้เรียนฟังและอ่านคำศัพท์ผ่านเทคโนโลยีนี้ จะช่วยให้พัฒนาทักษะการอ่านและการฟังของผู้เรียนได้มากขึ้น เป็นการเสริมพัฒนาการอ่านและฟัง และการให้ผู้เรียนได้สัมผัสและสร้างสรรค์ด้วย AR สามารถกระตุ้นจินตนาการและความคิดสร้างสรรค์ของผู้เรียนในการเรียนรู้ จึงต้องการที่จะสร้าง AR เพื่อช่วยสร้างประสบการณ์การเรียนรู้ที่มีความสมจริงมากขึ้น ผู้เรียนสามารถได้รับการเรียนรู้แบบได้เสมือนจริงที่น่าสนใจและมีความน่าสนใจมากขึ้น ทำให้มีความตั้งใจในการเรียนรู้และนำไปสู่การพัฒนาทักษะดีขึ้น นอกจากนั้น ช่วยในการฝึกการออกเสียงภาษาอังกฤษอย่างทันท่วงที ผู้เรียนสามารถทดลองออกเสียงตามคำและปฏิสัมพันธ์ในสถานการณ์ที่เสมือนจริง ซึ่งเป็นประโยชน์มากในการพัฒนาทักษะการสนทนาและความมั่นใจในการพูด นอกจากเรื่องของการสื่อสารแล้ว การใช้เทคโนโลยี AR ยังสามารถแสดงตัวอักษรพร้อมกับเสียงที่เกี่ยวข้องกับแต่ละตัวอักษร Phonics ซึ่งช่วยในการสะกดคำและเรียนรู้เสียงของแต่ละตัว การสะกดคำและเสียงในลักษณะของภาพ 3 มิติ, วิดีโอ, หรือการประกาศเสียงที่สามารถช่วยในการเข้าใจและจดจำคำศัพท์ Phonics ได้มากขึ้น ปัญหาที่ค้นพบในวิชาภาษาอังกฤษคือ ผู้เรียนมีปัญหาในการออกเสียงภาษาอังกฤษ เนื่องมาจากความแตกต่างระหว่างระบบเสียงภาษาอังกฤษกับระบบเสียงภาษาไทย ผู้เรียนจำเสียงพยัญชนะไม่ได้ทั้งภาษาอังกฤษและภาษาไทย จึงทำให้ผู้เรียนไม่สามารถสะกดคำได้และอ่านคำศัพท์ภาษาอังกฤษไม่ถูกต้อง การอ่านออกเสียงสะกดคำ (Phonics) เป็นหลักการถอดเสียงและการประสมเสียงของตัวอักษร ผู้เรียนจะต้องเข้าเสียงของตัวอักษร และสามารถออกเสียงตัวอักษรได้อย่างถูกต้อง จึงจะสามารถประสมเสียงออกมาเป็นคำได้ เช่นคำว่า Cat ผู้เรียนต้องรู้จักเสียงของแต่ละตัวอักษรก่อน จากนั้นจึงค่อยประสมเสียงเป็น เคอะ + แอะ + เทอะ แคท จึงต้องการทดลองใช้ spatial เป็นห้องเรียนเสมือนจริง แล้วใช้โปรแกรม ARyel สร้างสื่อบัตรคำภาษาอังกฤษ AR ซึ่งเป็นเครื่องมือที่ให้ผู้เรียนได้เข้าไปแสกนเพื่อเข้าไปเรียนในห้องเรียน Metaverse ใน spatial จะช่วยให้ผู้เรียนสนใจในการเรียนภาษาอังกฤษมากยิ่งขึ้น โดยชุดสื่อความจริงร่วมกับเมตาเวิร์ส เพื่อพัฒนาการอ่านออกเสียงภาษาอังกฤษ ที่ได้พัฒนาขึ้นมานี้เกิดจากการศึกษาและรวบรวมข้อมูลจากแนวคิด ทฤษฎี และหลักสูตรแกนกลาง และได้นำกระบวนการแนวคิดเชิงออกแบบ (Design Thinking Process) ของ Stanford d. school 5 ขั้นตอน มาใช้ในการพัฒนาชุดสื่อความจริงร่วมกับเมตาเวิร์ส เพื่อพัฒนาการอ่านออกเสียงภาษาอังกฤษ จะช่วยให้ผู้เรียนสามารถอ่านออกเสียงคำศัพท์ภาษาอังกฤษได้ถูกต้องตามหลักการออกเสียงมากยิ่งขึ้น ทั้งยังช่วยกระตุ้นความสนใจในการเรียนรู้ และช่วยส่งเสริมทัศนคติทางบวกในการเรียนรู้ภาษาอังกฤษทางด้านการออกเสียง ซึ่งถือเป็นพื้นฐานในการสื่อสารที่มีประสิทธิภาพและเพื่อเป็นการพัฒนาผู้เรียนให้มีพื้นฐานด้านการสื่อสารและเป็นการพัฒนาผลสัมฤทธิ์ทางการเรียนวิชาภาษาอังกฤษให้สูงขึ้น

คณะบริหารธุรกิจ
This book introduces basic management concepts that are applicable to technological innovation development. It encompasses various tech settings like Agro & Health tech, in addition to the more commonly referred digital sector.

คณะวิศวกรรมศาสตร์
The integration of intelligent robotic systems into human-centric environments, such as laboratories, hospitals, and educational institutions, has become increasingly important due to the growing demand for accessible and context-aware assistants. However, current solutions often lack scalability—for instance, relying on specialized personnel to repeatedly answer the same questions as administrators for specific departments—and adaptability to dynamic environments that require real-time situational responses. This study introduces a novel framework for an interactive robotic assistant (Beckerle et al. , 2017) designed to assist during laboratory tours and mitigate the challenges posed by limited human resources in providing comprehensive information to visitors. The proposed system operates through multiple modes, including standby mode and recognition mode, to ensure seamless interaction and adaptability in various contexts. In standby mode, the robot signals readiness with a smiling face animation while patrolling predefined paths or conserving energy when stationary. Advanced obstacle detection ensures safe navigation in dynamic environments. Recognition mode activates through gestures or wake words, using advanced computer vision and real-time speech recognition to identify users. Facial recognition further classifies individuals as known or unknown, providing personalized greetings or context-specific guidance to enhance user engagement. The proposed robot and its 3D design are shown in Figure 1. In interactive mode, the system integrates advanced technologies, including advanced speech recognition (ASR Whisper), natural language processing (NLP), and a large language model Ollama 3.2 (LLM Predictor, 2025), to provide a user-friendly, context-aware, and adaptable experience. Motivated by the need to engage students and promote interest in the RAI department, which receives over 1,000 visitors annually, it addresses accessibility gaps where human staff may be unavailable. With wake word detection, face and gesture recognition, and LiDAR-based obstacle detection, the robot ensures seamless communication in English, alongside safe and efficient navigation. The Retrieval-Augmented Generation (RAG) human interaction system communicates with the mobile robot, built on ROS1 Noetic, using the MQTT protocol over Ethernet. It publishes navigation goals to the move_base module in ROS, which autonomously handles navigation and obstacle avoidance. A diagram is explained in Figure 2. The framework includes a robust back-end architecture utilizing a combination of MongoDB for information storage and retrieval and a RAG mechanism (Thüs et al., 2024) to process program curriculum information in the form of PDFs. This ensures that the robot provides accurate and contextually relevant answers to user queries. Furthermore, the inclusion of smiling face animations and text-to-speech (TTS BotNoi) enhanced user engagement metrics were derived through a combination of observational studies and surveys, which highlighted significant improvements in user satisfaction and accessibility. This paper also discusses capability to operate in dynamic environments and human-centric spaces. For example, handling interruptions while navigating during a mission. The modular design allows for easy integration of additional features, such as gesture recognition and hardware upgrades, ensuring long-term scalability. However, limitations such as the need for high initial setup costs and dependency on specific hardware configurations are acknowledged. Future work will focus on enhancing the system’s adaptability to diverse languages, expanding its use cases, and exploring collaborative interactions between multiple robots. In conclusion, the proposed interactive robotic assistant represents a significant step forward in bridging the gap between human needs and technological advancements. By combining cutting-edge AI technologies with practical hardware solutions, this work offers a scalable, efficient, and user-friendly system that enhances accessibility and user engagement in human-centric spaces.

คณะเทคโนโลยีการเกษตร
-