Tag: Artificial Intelligence (Page 1 of 2)

Generativ AI – Vad händer i IT-industrin?

I vårt forskningsprojekt EDU-AI vid Uppsala universitet har vi undersökt hur generativ AI påverkar yrkeslivet inom IT. Resultatet är en rapport som samlar insikter från flera studier och som visar att AI inte bara är ett verktyg, utan något som förändrar hur vi arbetar, lär oss och utvecklas.

AI som arbetskamrat

Vi ser hur generativ AI hjälper IT-professionella att jobba smartare, men också hur det ställer nya krav. Det räcker inte längre med traditionell teknisk kompetens. Nu behövs även förståelse för AI-system, prompt engineering, etik och kritiskt tänkande. Olika AI-verktyg, som Copilot och ChatGPT, kan skapa Flow i arbetet. Men Flow uppstår inte automatiskt, det kräver rätt uppgift, rätt miljö och rätt stöd.

Design och interaktion i förändring 

Inom Human-Computer Interaction (HCI) har vi undersökt hur generativ AI påverkar design och användarupplevelser. Det handlar om att skapa system som inte bara är smarta, utan också etiskt hållbara och mänskligt intuitiva. Vi har identifierat både möjligheter och begränsningar, samt pekar på behovet av att designa med eftertanke.

Hållbarhet – både potential och utmaning

Vi har också tittat på AI ur ett hållbarhetsperspektiv. Generativ AI kan bidra till effektivare resursanvändning och smartare lösningar, men kräver samtidigt mycket energi och kan förstärka bias. Här behövs balans mellan teknikens möjligheter och mänskliga värden.

Kompetensutveckling är nyckeln

En tydlig slutsats från våra studier är att kompetensutveckling är avgörande. För att kunna använda AI på ett meningsfullt sätt krävs nya kunskaper och en vilja att lära nytt. Vi ser att självstyrt lärande, etisk medvetenhet och tvärvetenskapligt samarbete blir allt viktigare.

Sammanfattningsvis

Vår rapport visar att generativ AI har stor potential, men också att det krävs ett medvetet arbete för att ta vara på den. För de som verkar inom IT-industrin innebär det både nya möjligheter och ett ansvar att forma framtidens arbetsliv på ett hållbart och etiskt sätt.

Läs rapporten här:

https://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-566871

What Is the Philosophy of Computing Education—And Why Does It Matter?

New publication by Roger McDermott, Mats Daniels, John N.A. Brown, and Åsa Cajander in ITiCSE 2025

When we talk about research in Computing Education, we often refer to data-driven studies—statistical analyses of learning outcomes, empirical classroom studies, or qualitative work grounded in social science methods. But what if we also turned to philosophy to better understand how and why we teach computing?

In our newly published paper, “Determining the Scope of the Philosophy of Computing Education,” we explore what it means to apply philosophical inquiry within computing education research. Inspired by similar movements in engineering education, we ask fundamental questions:

  • What is the nature of computing as a discipline?
  • What assumptions shape our teaching practices?
  • How can conceptual analysis complement empirical and qualitative research?

Rather than offering yet another case study or dataset, this paper delves into the foundations of the field itself. We suggest that a philosophical perspective can enrich our understanding of key concepts, challenge unexamined assumptions, and help clarify the methods and goals of computing education research.

This is not about replacing empirical work—but about broadening the conversation. By including philosophical methods, we can develop a more reflective and mature field, better equipped to navigate the ethical, conceptual, and educational challenges of a rapidly changing discipline.

👉 You can read the full open-access paper here:
https://doi.org/10.1145/3724363.3729049

We look forward to continuing the conversation with the wider computing education community.

AI i forskning och examination

Tidigare under veckan var Niklas Humble inbjuden till Mittuniversitetet – och institutionen för kommunikation, kvalitetsteknik och informationssystem (KKI) – för att hålla en presentation på temat “AI i forskning och examination”. Passet varvades med forskning från EDU-AI-projektet vid Uppsala universitet, praktiskt arbete och diskussion. 

Som en del i detta skulle deltagarna testa ett antal AI-verktyg, diskutera möjligheter och utmaningar, samt utveckla sina egna AI-strategier för forskning och högre utbildning. Arbetet var inspirerat av artikeln:  

Humble, N. (2024). Risk management strategy for generative AI in computing education: How to handle the strengths, weaknesses, opportunities, and threats? International Journal of Educational Technology in Higher Education, 21. https://doi.org/10.1186/s41239-024-00494-x  

Under passet, och den efterföljande diskussion, blev det uppenbart hur mycket vi kan lära av varandra när vi samarbetar och diskuterar över ämnesgränserna. Vad händer när datavetare diskuterar med journalister? Eller när ingenjörer samarbetar med arkivarier? 

Svaret: något spännande och oväntat! 

Generativ AI i den professionella IT-världen och dess implikationer för högre utbildning

Tidigare i veckan presenterade Sofia Ouhbi pågående forskning inom projektet EDU-AI (vilken bedrivs tillsammans med Niklas Humble, Åsa Cajander, Mats Daniels och Lars-Åke Nordén) vid Teknisk-naturvetenskapliga fakultetens Universitetspedagogiska Konferens (TUK 2025) vid Uppsala universitet.

Presentation bygger på en kommande rapport från projektet där pågående forskning om generativ AI i den professionella IT-världen och dess implikationer för högre utbildning sammanfattas och diskuteras.

EDU-AI-projektet (Adapting Computing Education for an AI-Driven Future: Empirical Insights and Guidelines for Integrating Generative AI into Curriculum and Practice), syftar till att undersöka hur generativ AI används av IT-professionella och hur denna teknik påverkar högre utbildning.

Presentation, och rapporten, lyfter följande fynd från den pågående forskningen:

  • Adoptionsmönster: Generativ AI adopteras i olika takt inom olika sektorer. IT-professionella ligger ofta i framkant och använder AI för att lösa komplexa problem och förbättra effektiviteten.
  • Fördelar med generativ AI: Fördelarna med generativ AI är många. Den ökar produktiviteten, förbättrar lärande-upplevelser och uppmuntrar till innovativa tillvägagångssätt för problemlösning.
  • Utmaningar och etiska överväganden: Trots sina fördelar medför generativ AI också utmaningar, inklusive etiska frågor, data-bias och risken för missbruk. Att hantera dessa frågor är avgörande för en ansvarsfull användning av AI-teknologier.
  • Framtida AI-kompetenskrav: När arbetsmarknaden utvecklas kommer det att finnas ett växande behov av AI-kompetenser. Att förbereda studenter för denna framtid är ett centralt mål för projektet.

Sammanfattningsvis belyser EDU-AI-projektet den transformativa potentialen hos generativ AI inom både professionell IT och högre utbildning. Den fortsatta forskningen i projektet kommer att utforska studenters syn på och användning av AI-teknologier, samt vilka metoder lärare använder för att integrera tekniken i högre utbildning.

Om du har frågor eller vill veta mer, kontakta niklas.humble@it.uu.se

Gilla Jobbet-konferensen: En dag full av diskussioner om arbetsmiljö, hot och AI


Jag och 700 andra personer hade i veckan chansen att delta på Gilla Jobbet-konferensen i Malmö, en mötesplats för diskussioner kring arbetsmiljöfrågor. Förutom att jag fick lyssna på flera intressanta föreläsningar, hade jag även möjligheten att hålla en presentation om vårt arbete med AI, automatisering och hur det påverkar arbetsmiljön. Här är några av höjdpunkterna från dagen.

Att förebygga och hantera hot och våld

På en av föreläsningarna lyssnade jag på Torbjörn Hellmouth som pratade om hur man kan förebygga och hantera hot och våld på arbetsplatsen – ett problem som tyvärr är alltför vanligt. Han lyfte fram att det går att undvika många farliga situationer genom att jobba förebyggande, men också hur man akut kan hantera hot när de ändå inträffar.

En sak som fastnade hos mig var när han pratade om varför olika människor kan reagera så olika på samma hotfulla situation. Det är viktigt att förstå när man ska ge stöd på rätt sätt, eftersom alla har olika behov.

Digitala aggressioner – en ny arbetsmiljörisk inom skolan

En annan aktuell fråga som togs upp på konferensen var “digitala aggressioner”, presenterad av Rebecka Cowen Forssell, biträdande universitetslektor vid Malmö universitet. Man kan också hitta Rebeckas forskning på “Forskning på 5: Digitala aggressioner”.

Forskningen som Rebecka leder har resulterat i ett nytt verktyg som syftar till att göra forskning lätt tillgänglig och användbar direkt på arbetsplatsen. Hon förklarade hur digitala aggressioner kan påverka medarbetares hälsa och motivation, och betonade att det är viktigt att uppmärksamma och tala om den här problematiken.

Återhämtning under arbetsdagen

En annan föreläsning som jag tyckte var riktigt intressant hölls av Lina Ejlertsson, som forskar inom folkhälsa. Hon pratade om vikten av att vi faktiskt måste få tid till återhämtning även under arbetsdagen, inte bara på fritiden. Hon gav flera bra tips på hur man kan skapa variation i jobbet – genom att ändra tempo, arbetsuppgifter eller till och med plats där man arbetar. Hon finns också på Instagram och delar med sig av forskning inom återhämtning!

Mångfald, arbetsmiljö och integration med en humoristisk twist

En annan höjdpunkt var Umit Dag, som verkligen fångade hela publiken med sin blandning av humor och allvar. Han är också ståuppkomiker, vilket märktes i hans föreläsning.

Umit berättade om sina egna erfarenheter som invandrare och de kulturkrockar han stött på under sin resa in i det svenska arbetslivet. Han fick oss att skratta och tänka efter på samma gång! Det var både underhållande och tankeväckande.

Vår presentation: AI, automatisering och arbetsmiljön

Jag hade också förmånen att presentera mitt arbete om hur AI och automatisering påverkar arbetsmiljön. Jag pratade om att AI kan vara både till hjälp och ett hinder, beroende på hur det implementeras. Tekniken kan absolut göra jobbet enklare och mer effektivt, men om den används på fel sätt kan den istället skapa stress och göra arbetsmiljön sämre.

Gilla Jobbet-konferensen var verkligen en inspirerande dag. Jag fick med mig många nya tankar om hur vi kan förbättra arbetsmiljön, och det var spännande att få dela med mig av mina egna erfarenheter om AI och automatisering. Jag ser fram emot nästa konferens i Skellefteå om någa veckor. I Göteborg är det Bengt Sandblad som pratar om AI, automatisering och arbetsmiljö-

Gilla jobbets föreläsningar finns också digitalt om du blev nyfiken! https://gillajobbet.se/


AI + Spel + Programmering = “Programming in Valhalla”

Som en del av projektet “Spel för datalogiskt tänkande” (SPEDAT) har Niklas Humble (postdoktor vid forskargrupperna HTO och CER) utvecklat ett lärspel (serious game) om programmering och datalogiskt tänkande.

Spelet heter “Programming in Valhalla” och blandar karaktärer från nordisk mytologi med programmering, hårdrock och en hel del humor. I design och utveckling av spelet så har Niklas tagit hjälp av artificiell intelligens för att skapa spelutmaningar, grafik och dialog. Niklas forskar även annars om AI-användning inom utbildning och industri (i EDU-AI projektet vid Uppsala universitet).

Spelets innehåll är baserat på forskning inom SPEDAT-projektet, som bland annat har identifierat koncept och färdigheter inom programmering som är viktiga men samtidigt kan vara utmanande för studenter att lära sig. Förhoppningen är att spelet ska kunna stötta blivande studenter att lära sig mer om grunderna i programmering, men även kunna motivera andra att bli intresserade av programmering!

“Programming in Valhalla”, som just nu är en high-fidelity-prototyp (dvs. fullt spelbar version av spelet men inte den slutgiltiga produkten), kommer att testas och utvärderas under höstterminen 2024. Den färdiga versionen av spelet planeras att vara klar i början av 2025. Om du är intresserad av att delta i testningen, kontakta niklas.humble@it.uu.se

Mer info:

Niklas Humble har tidigare utvecklat spel som “Escape with Python” (ett spel om programmering för grundskoleelever) och “Computer Programming in Schools” (en interaktiv berättelse som utgick ifrån innehållet i hans doktorsavhandling). Det senare spelet (“Computer Programming in Schools”) utvecklades även det med hjälp av AI-teknologi.

SPEDAT är ett 2-årigt projekt inom ramen för “Higher Education and Digitalisation” (HEaD) vid Mittuniversitetet. I SPEDAT-projektet samarbetar forskare med anknytning till Mittuniversitetet, Högskolan i Gävle och Uppsala universitet för att undersöka hur spel (serious games) kan användas för att träna studenter inom högre utbildning i datalogiskt tänkande och programmering. En slutprodukt i SPEDAT-projektet är att utveckla ett lärspel om programmering och datalogiskt tänkande.

Frukost med AI

(Bild genererad med Microsoft Copilot)

I veckan så var Niklas Humble på ett frukost-seminarium om generativ AI och agilt arbetssätt som Sogeti Gävle hade bjudit in till. Under seminariet lyftes flera aspekter på hur generativ AI kan påverka verksamheter samt kombineras med ett agilt arbetssätt.

För att förstärka poängen med eventet så var hela den inledande presentation av Sogeti AI-genererad!

Den efterföljande diskussionen lyfte flera intressanta möjligheter och utmaningar med att integrera AI i befintlig verksamhet, där representanter från flera företag och organisationer i Gävle-Sandviken-trakten delade med sig av sina erfarenheter.

Som forskare var det även intressant att höra att mycket av det som diskuteras och presenterades under seminariet har flera beröringspunkter med den forskning som vi bedriver i HTO-gruppen.

En mycket givande frukost som inspirerade till flera tankar om framtida forskning och potentiella samarbeten!

Insights from the FoU Program Conference: Exploring the Impact of Robots, Automation and AI on Work Environments

Last week, we had the privilege of attending the Research and Innovation Program Conference organized by AFA Försäkring. The focus was on understanding how automation, robotics, and artificial intelligence (AI) affect work environments. It was an insightful event where we got to learn from various projects, including our own Tara and Arora initiatives. The blog post photo captures a snapshot from our field visits during the TARA project.

Speakers such as Erik Billing from the University of Skövde, Kristina Palm from Karolinska University, and Eva Lindell from Mälardalen University shared their research findings and insights on how automation is changing the way we work. They discussed topics like how automation impacts job roles, the challenges of integrating new technologies into workplaces, and the importance of considering human well-being in the midst of technological advancements.

The conference emphasized the need to bridge the gap between research and practice. It highlighted the importance of finding practical solutions that benefit both workers and organizations. There was also discussion about the future of work and how we can prepare for the changes brought about by automation and AI.

Overall, the conference provided a valuable opportunity to learn, share ideas, and collaborate with others in the field. We left feeling inspired and motivated to continue our research and contribute to the ongoing conversation about the future of work in an increasingly automated world.

A Supportive Tool Nobody Talks About?

Information Technology is now being developed in a pace which is almost unbelievable. This is of course not always visible in the shape of computers, but also in the form of embedded technology, for example, in cars, home assistants, phones and so on. Much of this development is currently either driven by pure curiosity, or to cater for some perceived (sometimes imagined) user need. Among the former we may count the first version of the chatbots, where the initial research was mostly looking at how very large language models could be created. Once people became aware of the possibilities, that created a need for a service driven by the results, resulting in the new tools that are now being developed as a result.

Among the latter versions we have the development in the car industry as one example. Security has been a key issue among both drivers and car manufacturers for a long time. Most, if not all new cars today are equipped with intelligent non-locking brakes, anti-spin regulators, and even sensors that will support the driver in not crossing the lane borders involuntarily. The last feature is in fact more complex than might be thought at the beginning. Any course correction must be made in such a way that the driver feels that he or she is still in control of the car. The guiding systems have to interact seamlessly with the driver.

But there is one other ongoing development according to the latter version, which we can already see will have larger consequences for the society and for people in general. This development is also always announced as being of primary importance for the general public (at least for people with some financial funds). This is a product that resides at the far end of the ongoing development of car security systems. I am talking about the development of self-driving cars. The current attempts are still not successful enough to allow these cars to be let completely free in the normal traffic.

There are, however, some positive examples already, such as autonomous taxis in Dubai, and there are several car-driving systems that almost manage to behave in a safe manner. This is still not enough, as there have been a number of accidents with cars running in self-driving mode. But even when the cars become safe enough, one of the main remaining problems is the issue of responsibility. Who is responsible in the event of an accident? Currently, the driver is in most cases still responsible, since the law says that you cannot cease being aware of what happens in the surroundings. But, we are rapidly going towards a future where self driving cars may finally be a reality.

Why do we develop self-driving cars?

Enters the question: “Why?”. As a spoil sport I actually have to ask, why do we develop self driving cars? In the beginning, there was, of course, the curiosity aspect. There were competitions where cars were set to navigate long distances without human interception. But now, it seems to become more of a competition factor between car manufacturers. Who will be the first car producer that will cater for “the lazy driver who does not want to drive”?

It is, in fact, quite seldom that we hear any longer discussions about the target users of self-driving cars. For whom are they being developed? For the rich lazy driver? If so, that is in my opinion a very weak motivation. Everybody will of course benefit from a safer driving environment, and when (if) there is a time when there will only be self driving cars in the streets, it might be good for everybody, including cyclists and pedestrian. One other motivation mentioned has been that there are people who are unable to get a driver’s license, who would now be able to use a car.

But there is one group (or rather a number of groups) of people who would really benefit from this development when it is progressing further. Who are these people? Well, it is not very difficult to see that a group of people who would benefit the most of having self driving cars are people with severe impairments, and not least people with severe visual impairments. Today, blind people (among many others) are completely dependent on other people for their transport. In a self driving car, they could instead be free to go anywhere, anytime, just like everyone else today (if you have a valid driver’s license). This is in one sense the definition of freedom, as an extension of independence.

Despite this, we never hear this as an argument for the development of this fantastic supportive tool (as in fact, it could be). It is, as mentioned above, mostly presented as an interesting feature for techno-nerdy, rich and lazy drivers, who do not want to take the effort of driving themselves. Imagine what would happen if we could motivate this research from the perspective of supportive tools. Apart from raising the hope for millions of people who cannot drive, there would as a result also be millions of potential, eager new buyers only in the category of people who are blind or who have severe visual impairments. Adding to this also the possibility for older people who now have to stop driving due to age-related problems, who can now use the car much longer to a great personal benefit.

The self-driving car is indeed a very important supportive tool, and therefore I strongly support the current development!

This is, however, just one case among many others, on how we can motivate research also as a development of supportive tools. We just have to see the potentials in the research. Artificial Intelligence methods will allow us to “see” things without the help of our eye, make prostheses that move by will, and support people with dyslexia to read and write texts in a better way.

All it takes is a little bit of thinking outside of the box, some extra creativity, and, of course good knowledge about impairments and about the current rapid developments within (Information) Technology.

HTO Coverage: AI for Humanity and Society 2023 and human values

Mid of November in Malmö, WASP-HS held its annual conference on how AI affects our lives as it becomes more and more entwined in our society. The conference consisted of three keynotes and panels on the topics of criticality, norms, and interdisciplinarity. This blog post will recap the conference based on my takeaways regarding how AI affects us and our lives. As a single post, it will be too short to capture everything that was said during the conference, but that was never the intention anyway. If you don’t want to read through this whole thing, my main takeaway was that we should not rely on the past through statistics and data with its biases to solve the problems of AI. Instead, we should, when facing future technology, consider what human values we want to protect and consider how that technology can be designed to help and empower these values.

The first keynote was on criticality and by Shannon Vallor. It discussed metaphors for AI, she argued for the metaphor of mirrors instead of the myth that media might portray it as. We know a lot about how AI work, it is not a mystery. AI is technology that reflects our values and what we put into it. When we look at it and see it as humane, it is because we are looking for our reflection. We are looking for us to be embodied in it and anything it does is built on the distortion of our data. Data that is biased and flawed, mirroring our systematic problems in society and its lack of representation. While this might give of an image of intelligence or empathy, that is just what it is: an image. There is no intelligence or empathy there. Only the prediction of what would appear empathical or intelligent. Vallor likened us to Narcissus, caught in the reflection of ourselves that we so flawedly built into the machine. Any algorithm or machine learning model will be more biased than the data it is built on as it draws towards the norms of biases in the data. We should sort out what our human morals are and take biases into account in any data we use. She is apparently releasing a book on the topic of the AI metaphor and I am at least curious to read it after hearing her keynote. Two of the points that Vallor ends on is that people on the internet usually have a lot to say about AI while knowing very little and that we need new educations which teach what is human-centered so that it does not get lost between the tech that is pushed.

The panel on criticality was held between Airi Lampinen, Amanda Lagerkvist, and Michael Strange. Some of the points that were raised related to that we shouldn’t rush technology, that reductionistic view of a lot of the industry will miss the larger societal problems, novelty is a risk, we should worry about what boxes we are put into, and what human values do we want to preserve from technology? Creating new technology just because we can is not the real reason, it is always done for someone. Who would we rather it was for? Society and humanity perhaps? The panelists argued it would be under the control of the market forces without interventions and stupid choices are made because they looked good at the time.

The second keynote on norms and values was by Sofia Ranchordas who discussed the clash between administrative law, which is about protecting individuals from the state, and digitalization and automation, which builds on statistics that hides individuals categorised into data and groups, and the need to rehumanize its regulation. Digitalization is designed for the tech-savvy man and not the average citizen. But it is not even the average citizen that needs these functions of society the most, it is the extremes and outliers and they are even further from being tech-savvy men. We need to account for these extremes, through human discretion, empathy, vulnerability, and forgiveness. Decision making systems can be fallible, but most won’t have the insight to see it. She ended on that we need to make sure that technology don’t increase the asymmetries of society.

The panel that followed consisted of Martin Berg, Katja De Vries, Katie Winkle, and Martin Ebers. The presentations of the participants raised topics such as why do people think AI is sentient and fall in the trap of antromorphism, that statistics cannot solve AI as they are built on different epistemologies and those that push it want algorythmic bias as they are the winners of the digital market, the practical implications of limits of robots available at the market to use in research, and the issues in how we assess risk in regulation. The following discussion included that law is more important than ethical guidelines for protecting basic rights and that it both too early to regulate and we don’t want technology to cause actual problems before we can regulate it. A big issue is also the question if we are regulating the rule-based systems we have today or the technological future of AI. It is also important to remember that not all research and implementation of AI is problematic, as lot of research into robotics and automation is for a better future.

The final keynote was by Sarah Cook and about the interdisciplinar junction between AI and art. It brought up a lot of different examples of projects in this intersection such as: Ben Hamm’s Catflap, ImageNet Roulette, Ian Cheng’s Bad Corgi, and Robots in Distress to highlight a few. One of the main points in the keynote was shown through Matthew Biederman’s A Generative Adversarial Network; generative AI is ever reliant on human input data as it implodes when endlessly being fed its own data.

The final panel was between Irina Shklovski, Barry Brown, Anne Kaun, and Kivanç Tatar. The discussion raised topics as questioning the need of disciplinarity and how you deal with conflicting epistemologies, the failures of interdisciplinarity as different disciplines rarely acknowledges each other, how do you deal with different expectations of contributions and methods when different fields met, and interdisciplinar work often ends up being social scientific. A lot of, or most work, in HCI tends to end up in some regard to be interdisciplinary. As an example from the author, Uppsala University has two different HCI research groups, one at the faculty of natural sciences and one at the faculty of social sciences, while neither fits perfectly in. The final discussion was on the complexities of how to deal with interdisciplinarity as a PhD student. It was interesting and thought-provoking, as a PhD student in a interdisciplinary field, to hear the panelists and audience members bringing up their personal experiences of such problems. I might get back to the topic in a couple of years when my studies draws to a close to forward the favour and tell others about my experiences so that others can learn from them as well.

Overall, it was an interesting conference highlighting the value of not forgetting what we value in humanity and what human values we want to protect in today’s digital and automated transformation.

« Older posts