Activeer hoog contrast
Ga naar hoofdcontent
Uitslag verkiezingen 2024 Centrale Studentenraad
Uitslag van de studentenraad verkiezing Bij de uitslagbepaling op 17 mei 2024 van de verkiezingen voor de Centrale Studentenraad, gehouden op 15 en 16 mei 2024, heeft de Centrale Verkiezingscommissie de navolgende kandidaten gekozen verklaard: Lijst 1, ORAS: Step Kruisinga Daan van Ginkel Sara Nagtegaal Guus Doldersum Lisa Kurstjens Rosalie Fritz Lijst 2, Lijst Bèta: Merel van Gruijthuisen Bart Meenderman Wiek de Bever Lijst 3, Dé Partij: Koos Meesters Het opkomstpercentage voor de verkiezingen voor de Centrale Studentenraad was dit jaar 31,7%. Dit percentage is hoger dan de afgelopen drie jaren (30% in 2023, 28,9% in 2022, 27,6% in 2021 en 27,9% in 2020), maar lager dan in het jaar daarvoor (35,4% in 2019). In 2024 hebben in totaal 8.117 studenten hun stem uitgebracht voor de Centrale Studentenraad. Eventuele bezwaarschriften tegen de vaststelling van de uitslag van deze verkiezingen kunnen uiterlijk tot en met 24 mei 2024 schriftelijk worden ingediend bij de verkiezingscommissie via e-mail: jz@tudelft.nl of per post: TU Delft Legal Affairs T.a.v. verkiezingscommissie Postbus 5 2600 AA Delft Indien er op of voor 24 mei 2024 geen bezwaarschriften zijn ingediend, zal de uitslag op 25 mei 2024 onaantastbaar zijn. De kandidaten ontvangen na 25 mei 2024 van de verkiezingscommissie een brief met de mededeling of zij wel of niet zijn gekozen. Gekozen studenten hebben vervolgens één maand de tijd om hun verkiezing te aanvaarden.
Wetenschappers TU Delft en Cambridge University werken samen aan innovatieve methoden om klimaatverandering te bestrijden
Al ruim anderhalf jaar werken onderzoekers van de TU Delft en het Cambridge University Centre for Climate Repair intensief samen aan baanbrekende technieken om wolken te beïnvloeden in de strijd tegen de opwarming van de aarde. Tijdens een tweedaagse bijeenkomst bespreken de teams hun voortgang. De onderzoekers van Cambridge richten zich op de technische ontwikkeling van een systeem dat zeewater kan vernevelen, waarbij zoutkristallen in de lucht worden gebracht om wolkenvorming te beïnvloeden. Het team van TU Delft, onder leiding van Prof. dr. ir. Herman Russchenberg, wetenschappelijk directeur van het TU Delft Climate Action Programma en hoogleraar Atmospheric Remote Sensing, onderzoekt de natuurkundige effecten van deze techniek. Prof. Russchenberg benadrukt het belang van dit onderzoek: "We hebben nu de eerste stappen gezet om noodmaatregelen te ontwikkelen tegen klimaatverandering. Als het nodig blijkt, moeten we voorbereid zijn om deze technieken in de praktijk te kunnen brengen. Liever gebruiken we het niet, maar het is goed om nu te onderzoeken hoe het werkt." Prof.dr.ir. Stefan Aarninkhof, decaan van de faculteit Civiele Techniek en Geowetenschappen, is trots dat de eerste resultaten in deze unieke samenwerking nu zichtbaar zijn. Als de onderzoekers in Delft en Cambridge kunnen aantonen dat het concept veelbelovend is, zullen binnen een jaar de eerste kleinschalige experimenten op een verantwoordelijke manier van start gaan. Dit onderzoek is mogelijk gemaakt dankzij de meerjarige steun van de Refreeze the Arctic Foundation, opgericht door de familie van TU Delft-alumnus Marc Salzer Levi . Dergelijke gulle bijdragen maken innovatief en impactvol onderzoek mogelijk dat dringende mondiale uitdagingen, zoals klimaatverandering, aanpakt. Grote donaties zoals deze stellen ons in staat om onderzoek van hoge impact en innovatie na te streven dat anders wellicht niet uitvoerbaar zou zijn, en tonen aan hoe onze gezamenlijke inzet en investeringen in de wetenschap kunnen leiden tot echte, transformerende oplossingen voor wereldwijde uitdagingen zoals klimaatverandering. Climate-Action Programme
Hoe systeemveiligheid Machine Learning systemen veiliger kunnen maken in de publieke sector
Machine Learning (ML), een vorm van AI waarbij patronen worden ontdekt in grote hoeveelheden data, kan heel handig zijn. Het wordt steeds vaker gebruikt, denk aan chatbot Chat GPT, voor gezichtsherkenning of aan spraaksoftware. Maar er zijn ook zorgen over de toepassing van ML systemen in de publieke sector. Hoe voorkom je dat het systeem bijvoorbeeld discrimineert, of op grote schaal fouten maakt met negatieve effecten op burgers? TU Delft wetenschappers, waaronder Jeroen Delfos, onderzochten hoe lessen uit de systeemveiligheid kunnen bijdragen aan een veiliger ML systeem in de publieke sector. ‘Beleidsmakers zijn druk met het bedenken van maatregelen om negatieve effecten van ML tegen te gaan. Uit ons onderzoek blijkt dat zij veel meer kunnen leunen op bestaande concepten en theorieën die hun waarde al hebben aangetoond in andere sectoren,’ zegt Jeroen Delfos. Jeroen Delfos Leren van andere sectoren In het onderzoek gebruikten de onderzoekers concepten van systeemveiligheid en systeemtheorie om de uitdagingen van het gebruik van ML systemen in de publieke sector te beschrijven. Delfos: ‘Concepten en tools uit de systeemveiligheidsliteratuur worden al veel gebruikt om de veiligheid van bijvoorbeeld de luchtvaart te ondersteunen, onder andere door ongelukken te analyseren met systeemveiligheidsmethodes, maar binnen het veld van AI en ML is dit nog niet gebruikelijk. Door de systeemtheoretische blik bekijken we veiligheid niet alleen als een resultaat van hoe de techniek werkt, maar juist als een resultaat van complexe set aan technische, sociale en organisationele factoren.’ De onderzoekers interviewden professionals uit de publieke sector om te zien welke factoren worden onderkend, en welke nog onderbelicht zijn. Bias Op een aantal punten kan terrein worden gewonnen om ML systemen in de publieke sector veiliger te maken. Zo wordt bijvoorbeeld bias in data nog vaak als een technisch probleem gezien, terwijl de oorsprong van die bias ver buiten het technische systeem kan liggen. Delfos: ’Denk dan bijvoorbeeld aan de registratie van criminaliteit. In buurten waar de politie vaker surveilleert wordt logischerwijs meer criminaliteit geregistreerd, waardoor deze buurten overgerepresenteerd worden in criminaliteitscijfers. Een ML systeem dat geleerd wordt patronen te ontdekken in deze cijfers zal deze bias gaan herhalen of zelf versterken. Het probleem zit echter in de manier van registreren, en niet in het ML systeem zelf.’ Risico’s verminderen Volgens de onderzoekers doen beleidsmakers en ambtenaren die bezig zijn met de ontwikkeling van ML systemen er goed aan om concepten van systeemveiligheid mee te nemen. Zo is het aan te raden om bij het ontwerpen van een ML systeem vooraf te identificeren wat voor ongelukken men wil voorkomen. Verder is een les vanuit systeemveiligheid, bijvoorbeeld in de luchtvaart, dat systemen in de praktijk de neiging hebben om over tijd steeds risicovoller te worden, omdat veiligheid steeds ondergeschikter raakt aan efficientie zolang er geen ongelukken gebeuren. ‘Het is dus belangrijk dat veiligheid een terugkomend onderwerp is bij evaluaties en dat de eisen voor veiligheid worden gehandhaafd’, aldus Delfos. Lees het paper over dit onderzoek.