<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:DengXian;
        panose-1:2 1 6 0 3 1 1 1 1 1;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:"\@DengXian";
        panose-1:2 1 6 0 3 1 1 1 1 1;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
.MsoChpDefault
        {mso-style-type:export-only;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style></head><body lang=EN-US><div class=WordSection1><p class=MsoNormal><span style='font-size:16.0pt'>Hi, all<o:p></o:p></span></p><p class=MsoNormal><span style='font-size:16.0pt'><o:p>&nbsp;</o:p></span></p><p class=MsoNormal><span style='font-size:16.0pt'>Next Wednesday we will have our 2<sup>nd</sup>  research talk by Prof Dixon. The talk is about the Machine Learning. We will offer lunch. See you there.<o:p></o:p></span></p><p class=MsoNormal><span style='font-size:16.0pt'><o:p>&nbsp;</o:p></span></p><p class=MsoNormal><span style='font-size:16.0pt'>Time: 12:50, Wednesday, 6<sup>th</sup> March<o:p></o:p></span></p><p class=MsoNormal><span style='font-size:16.0pt'>Place: RE106<o:p></o:p></span></p><p class=MsoNormal><span style='font-size:16.0pt'>Speaker: Matthew Dixon<o:p></o:p></span></p><p><span style='font-size:16.0pt;font-family:"Times New Roman",serif'>Title: Voronoi Neural Networks</span><span style='font-size:16.0pt'><o:p></o:p></span></p><p><span style='font-size:16.0pt;font-family:"Times New Roman",serif'>We introduce a multi-layer perceptron (MLP) which explicitly tessellates the domain with a Voronoi diagram rather than learns the partitions through optimization. The primary advantage of such a network is that is equivalent to b-spine interpolation, where the degree of&nbsp;the b-spline matches that of the activation functions.&nbsp; Under Lipschitz&nbsp;continuity of the target function, we present various bounds on the global&nbsp;approximation&nbsp;error as a function of the number of hidden units.&nbsp;Numerical experiments are&nbsp;presented to demonstrate&nbsp;the convergence properties.&nbsp; Finally, some important future directions are discussed, such as the effect of multiple hidden layers on the approximation error.</span><span style='font-size:16.0pt'><o:p></o:p></span></p><p class=MsoNormal><o:p>&nbsp;</o:p></p><p class=MsoNormal><br>Best Regards<br>--------------------------<br>Yue Cao, PHD candidate<br>IIT SIAM Student Chapter President<br>Department of Applied Mathematics<br>Illinois of Institute of Technology<br><br>Office: John T. Rettaliata Engineering Center, Room 232<br>Email: ycao33@hawk.iit.edu</p><p class=MsoNormal><o:p>&nbsp;</o:p></p></div></body></html>