This project focuses on the development of an automatic license plate recognition system that supports both standard and special license plates in Thailand. By utilizing Machine Learning technology, the system enhances the efficiency of license plate reading. It can process data from both images and videos. Users can register and subscribe to the service, allowing them to send data for processing through RESTful API, WebSocket, and registered IP cameras.
ในปัจจุบัน ระบบการอ่านป้ายทะเบียนอัตโนมัติ มีการนำมาใช้กันอย่างกว้างขวาง เช่น ระบบตรวจสอบรถ เข้าออก ระบบจัดการลานจอดรถ ระบบขนส่งสาธารณะที่ใช้เก็บค่าผ่านทางแบบอัตโนมัติ ระบบรักษาความปลอดภัย เป็นต้น ความแม่นยำในการอ่านป้ายทะเบียนจึงเป็นสิ่งจำเป็นอย่างยิ่ง เพื่อประสิทธิภาพ และความถูกต้องของข้อมูล เทคโนโลยี Machine Learning จึงถูกนำมาประยุกต์ใช้ เพื่อเพิ่มประสิทธิภาพในการอ่านป้ายทะเบียน ไม่ว่าจะเป็นในรูปแบบของ Software Module ที่ติดตั้งแบบถาวร หรือเป็นบริการ E-service อย่างไรก็ตาม ระบบรูปแบบ Software Module มักพบปัญหาในการไม่ได้รับการอัปเดตอย่างสม่ำเสมอ และระบบรูปแบบ E-service ในปัจจุบันยังไม่สามารถอ่านป้ายทะเบียนของประเทศไทยได้อย่างมีประสิทธิภาพ เนื่องจากความซับซ้อนของภาษาไทย ที่เกิดจากป้ายทะเบียนรูปแบบพิเศษ เช่น ป้ายทะเบียนประมูลของกรมขนส่งทางบก ที่มีลวดลาย และรูปแบบตัวอักษรที่แตกต่างจากป้ายทะเบียนปกติ จากปัญหาที่กล่าวมา โครงการนี้จึงมีแนวคิดในการพัฒนา Machine Learning Model ที่ออกแบบมาเพื่อจัดการกับปัญหาเฉพาะของป้ายทะเบียนในประเทศไทย โดยมีเป้าหมายความแม่นยำในการอ่านป้ายทะเบียนอยู่ที่ 95 เปอร์เซ็นต์ พร้อมกับการพัฒนาบริการ E-service สำหรับการอ่านป้ายทะเบียนอัตโนมัติ ให้ผู้ที่สนใจสามารถเข้าใช้งาน Machine Learning Model ของเราได้ โดยผ่านการลงทะเบียนบนเว็บไซต์ จ่ายค่าสมัครใช้บริการรายเดือน และส่งข้อมูลในรูปแบบของรูปภาพผ่าน RESTful API, WebSocket และวิดีโอผ่านกล้อง IP ที่มีการลงทะเบียนเอาไว้กับระบบ นอกจากนี้ยังมีการพัฒนาเว็บไซต์สำหรับผู้ดูแลระบบ เพื่อช่วยในการบริหารจัดการและตรวจสอบการทำงานของระบบ

คณะวิทยาศาสตร์
This work presents the fabrication of the handheld meter for potentiometric detection of Hg (II). The meter was constructed based on using an ion-sensitive field-effect transistor (ISFET) platform. The developed meter provides high accuracy and precision (%Recovery was in the range of 92.55 - 109.32 and %RSD was 2.38). It was applied to the analysis of cosmetic samples. The results by the developed electrode were not significantly different at a 95% confidence level compared to the results by using ICP-OES.

คณะวิทยาศาสตร์
-

วิทยาลัยอุตสาหกรรมการบินนานาชาติ
The capture of a target spacecraft by a chaser is an on-orbit docking operation that requires an accurate, reliable, and robust object recognition algorithm. Vision-based guided spacecraft relative motion during close-proximity maneuvers has been consecutively applied using dynamic modeling as a spacecraft on-orbit service system. This research constructs a vision-based pose estimation model that performs image processing via a deep convolutional neural network. The pose estimation model was constructed by repurposing a modified pretrained GoogLeNet model with the available Unreal Engine 4 rendered dataset of the Soyuz spacecraft. In the implementation, the convolutional neural network learns from the data samples to create correlations between the images and the spacecraft’s six degrees-of-freedom parameters. The experiment has compared an exponential-based loss function and a weighted Euclidean-based loss function. Using the weighted Euclidean-based loss function, the implemented pose estimation model achieved moderately high performance with a position accuracy of 92.53 percent and an error of 1.2 m. The in-attitude prediction accuracy can reach 87.93 percent, and the errors in the three Euler angles do not exceed 7.6 degrees. This research can contribute to spacecraft detection and tracking problems. Although the finished vision-based model is specific to the environment of synthetic dataset, the model could be trained further to address actual docking operations in the future.