Door Lotte Kips en Arenda Vermeulen
De 25ste editie van de SURF Onderwijsdagen in Den Bosch stonden volledig in het teken van het toekomstbestendig maken van het onderwijs. De Vraagbaak Online Onderwijs was er natuurlijk bij en volgde inspirerende sessies over bijvoorbeeld hybride onderwijs, Centers for Teaching & Learning, AI-tools in het onderwijs en een online study space.
Het is een kwestie van tijd dat generatieve AI ingebed is in het leven van mensen, ook in het onderwijs. Sterker nog: op allerlei plekken binnen onderwijsinstellingen worden data al geanalyseerd met algoritmes. Maar waar en door wie precies? Hoe zorgen we voor transparantie? En waarom zouden we daar eigenlijk transparant over moeten zijn? Zeker waar de wet dat niet van het onderwijs eist of waar het onduidelijk is wat de wet voorschrijft.
De doelen van een eventueel algoritmeregister en de bijbehorende doelgroepen stonden centraal op de bijeenkomst bij SURF op 28 september 2023. Na een eerste sessie over transparantie van algoritmes bleek dat we hierop verder moesten inzoomen. Dat deden we ook dit keer met vertegenwoordigers uit het wo, mbo en hbo.
Je leest hierna wat er besproken werd in de bijeenkomst en welke vervolgstappen we willen zetten. Als je ons daarbij wilt helpen, neem dan vooral contact met ons op!
In juni 2023 heeft het Europees Parlement (EP) ingestemd met een voorstel voor de aankomende AI-verordening (AI Act) en daarmee is ook het EP nu tot een conclusie gekomen rondom de regulering van AI. De EP was als derde aan de beurt, na de Europese Commissie en de Raad van Ministers. Dit betekent dat de Commissie, Raad van Ministers en het EP nu de langverwachte onderhandelingsfase (de zogenoemde ‘trilogue’) ingaan met als doel de drie voorstellen samen te voegen en te komen tot een definitieve wetstekst.
In a rapidly evolving world, artificial intelligence emerges as a transformative force in various research domains. While its potential is undeniable, the challenges it presents can't be overlooked. In a short survey we aimed to gauge the current state of the responsible application of AI in research. Preliminary findings indicate that promising steps are being made, but that significant gaps remain in institutional guidance and support, as well as in the practical implementation of responsible AI practices.
Herken je het? Weer zo'n rapport over AI met op de voorkant een robot die met zijn vinger naar een mens reikt of de Terminator op een slide over de risico's van AI? Better Images of AI is een initiatief om communicatie over AI door beeldvormen te verbeteren. En ze hebben nu een open call voor ontwerpers en kunstenaars om een bijdrage te leveren.
De nieuwe beta-feature “code interpreter” van ChatGPT wordt op social media geprezen als baanbrekend. De mogelijkheid om Python te runnen binnen de ChatGPT applicatie zou van ChatGPT eindelijk een wiskundewonder maken en van iedereen een data scientist. Zo simpel is het niet. In deze blog lees je wat een code interpreter is en hoe je deze verantwoord gebruikt.
Hardware architecture improvements had relied on Moore's law and Dennard scaling for some decades. According to Moore's prediction, the number of transistors on a chip doubles almost every 18 months. According to Dennard scaling, as transistors become smaller, their power density stays constant. These allowed manufacturers to raise clock frequencies without significantly increasing overall circuit power consumption. Nowadays, Moore’s law is not happening as predicted, and Dennard scaling law is broken down. To address this, (homogeneous) multi-processors were invented, and opened a new era for parallel processing to gain better performance with a reasonable increase in power consumption. However, homogeneous multi-processors cannot keep up with high-demand application requirements such as low power, energy efficiency, and high performance.
Deze artikelen lazen jullie het afgelopen half jaar het liefst op de Vraagbaak Online Onderwijs. Ze gaan onder andere over blended learning, kennisclips, online leren en natuurlijk ChatGPT.
In recent years, responsible artificial intelligence (AI) has been getting more attention. The potential of AI is undeniable, there has been a growing interest in the application of AI within many industries. However, the application of AI comes with its risks. That is why ethical frameworks and guidelines have emerged, aiming to regulate and limit those risks. AlgorithmWatch (2020) created an AI ethics guidelines inventory, in which over 160 guidelines were accumulated. Most of them were published after 2018, showing the increased attention to making AI more responsible.
However, as these AI ethics guidelines evolve, it turns out they are not easy to apply in practice. These guidelines tend to be too abstract and generic to be readily applicable in practice. There is a need for more practical guidelines to better help navigate the complexities of AI implementation. My thesis here at SURF investigates what is necessary to create a standards framework to help use AI more responsibly and offer more practical guidance. This blog post explores the problem of the applicability of these guidelines and how my thesis will aim to help bridge the gap between abstract guidelines and practical application in higher education.