Kansei 2009 – relacja i parę notatek
Czwarta już konferencja Kansei za nami. Tym razem nie wybrałem się tam osobiście, a większość wykładów obejrzałem dzięki transmisji online. Polecił mi ją Krzysiek, któremu z tego miejsca dziękuję. :-)
Powyżej możecie zobaczyć notatki z czterech wykładów, na których skupiłem się najbardziej (kliknięcie prowadzi do obrazka w pełnej skali). To taki mój eksperyment – wykorzystanie mapy myśli do notowania. Jeśli ktoś używa programu Freemind może pobrać całą mapę.
Teraz parę słów o tych wykładach:
Contextual Inquiry vs Repertory Grid Technique
Kto z Was zna te techniki, ręka do góry. :-) Chyba rzadko używane. Jak przewidywałem w zapowiedzi seminarium, prezentacja Agnieszki Szóstek z Uniwersytetu Eindhoven okazała się być zdecydowanie najlepsza. Pani Agnieszka mówiła bardzo szybko, upakowała w 30 minut tyle wiedzy, że możnaby spokojnie z tego zrobić 3 godzinne warsztaty, ja zaś nie nadążałem z notowaniem (to cała prawa część mapki, którą widzicie na górze).
Te dwie metody służą do rozpoznawania potrzeb użytkowników. Contextual Inquiry to w dużej ogólności ustrukturalizowany wywiad połączony z obserwacją użytkownika w jego naturalnym środowisku. Jest to metoda jakościowa. Repertory Grid polega – jeśli dobrze zrozumiałem – na zestawieniu różnych przeciwstawnych atrybutów, jakie różnym przedstawionym elementów nadają użytkownicy, następnie na wyborze i ocenie tych atrybutów. Jest to technika jakościowo-ilościowa, przyznaję, że zetknąłem się z nią po raz pierwszy, choć korzysta się z niej w psychologii od kilkudziesięciu lat.
Obie techniki wykorzystano (osobno) w celu określenia wskazówek projektowych przy tworzeniu klienta poczty elektronicznej. Te wskazówki były potem kategoryzowane i oceniane pod względem dwóch zmiennych: wartość oraz innowacyjność. Lepsze wskazówki wygenerowała metoda Repertory Grid, co było do przewidzenia ze względu na jej złożoność i mniejszą oczywistość procesu.
Co mnie bardzo pozytywnie ujęło w tej prezentacji, to wyraźna dbałość o poprawność metodologiczną. Na przykład na etapie kodowania (i kategoryzowania) wyników analizy brało udział (jeśli dobrze zrozumiałem) dwóch niezależnych koderów, których wyniki pracy potem były zestawiane i okazało się, że mają zgodność 94%. Z kolei wskazówki projektowe formułowało aż 4 ekspertów.
Warto się takim metodom przyglądać i próbować je wdrażać samodzielnie. Tym bardziej, że samo przeprowadzenie obu badań nie było czasochłonne – po godzinie na użytkownika. Potem oczywiście analiza, ale mimo skomplikowania formalnego, nie wydaje się to bardzo trudne. Kto spróbuje? :)
ZTM: „Przepraszam, ale znowu Cię nie rozumiem”
Druga najlepsza prezentacja tego dnia – Danijel Koržinek z PJWSTK opowiadał o wdrożeniu portalu głosowego na infolinii warszawskiego Zarządu Transportu Miejskiego. W skrócie: chodzi o automatyzację rozmów telefonicznych, które się powtarzają – na przykład pytanie o rozkład jazdy autobusu albo tramwaju. Interfejsy głosowe niosą ze sobą całą masę wyzwań:
- dostęp sekwencyjny – nie jesteśmy w stanie czegoś łatwo przeskoczyć
- opóźnienia, przerwy – w interakcji z komputerem są zwykle nienaturalne, a człowiek musi mówić w tym momencie, w którym pozwoli mu na to komputer (choć jak się okazuje, infolinii ZTM można przerywać i robić pewne rzeczy szybciej :)
- model mentalny – pierwsze zetknięcie z infolinią jest zwykle zaskoczeniem, część badanych po prostu od razu przerywała połączenie, albo przełączała się na operatora.
- błędy – system rozpoznawania mowy nie będzie w 100% idealny. Infolinia ZTM przeprasza że nie zrozumiała i prosi o powtórzenie. Jeśli powiem coś niewyraźnie, to zapyta czy na pewno o to chodziło. Po czwartych nieudanych rozpoznaniach tego co mówię, przełączy mnie na operatora.
Bardzo oryginalne było badanie samej koncepcji przy tworzeniu systemu. Badacze z PJWSTK zastosowali technikę Wizard of OZ. Polegała ona na tym, że ludzie dzwonili na automatyczną infolinię, ale po drugiej stronie siedział badacz, który sterował syntezatorem mowy (wybierał jedną z odpowiedzi). W ten sposób zarejestrowano około 500 rozmów, a dopiero po ich analizie stworzono automatyczny system odpowiedzi.
I sprawdza się. 30% wszystkich rozmów z infolinii ZTM jest już wykonywana automatycznie. Bardzo efektowna była prezentacja możliwości systemu. Krzysztof Marasek z PJWSTK zadzwonił po prostu na infolinię i spytał o bieżące odjazdy autobusu 116.
Chcesz zobaczyć jak to działa? Zadzwoń: (22) 19484.
Przyznaję, że robi wrażenie, bardzo cieszę się, że takie projekty powstają w polskich realiach.
Eyetracking x2
Obie prezentacje nie były wybitnie innowacyjne, ale oglądało się je z przyjemnością.
Obszary zainteresowań (ang. area of interest – AOI) jako metoda analizy wyników badania eye tracking – tytuł długi, a prezentacja Piotra Jardanowskiego i Wojciecha Chojnackiego (Symetria) dotyczyła po prostu praktycznych zastosowań eyetrackingu. Dowiedzieliśmy się o różnych miarach które pozwalają nam ocenić zachowanie w danym obszarze strony. Interpretacja miar zależy często od kontekstu, na przykład długi czas może być dobry, ale czasami jest świadectwem problemów, szczególnie w nawigacji. Za najważniejszą metrykę prowadzący uznali czas do pierwszej fiksacji w obszarze zainteresowań – czyli w jakim momencie element zostanie wreszcie zauważony.
Zastosowanie eye trackingu w poprawie skuteczności formularzy – ta prezentacja Agaty Pasikowskiej i Huberta Anyżewskiego (Uselab), którzy pokazali eyetracking na przykładach. Firma w styczniu tego roku badała formularz zakładania konta OFE w ING. Sam formularz, swoją drogą, od tego czasu się nie zmienił.
W badaniu połączono obserwacje i eyetracking, przy czym najgorętsze miejsca z heatmap okazywały się też miejscami, gdzie ludzie mieli problemy. Badania potwierdziły kilka rzeczy, które sprawne oko wyłapie, ale których zapewne nie wiedzieli projektanci z ING. Na przykład tylko połowa wypełniających formularz nie korzystała z przycisku „kopiuj adres zameldowania” i wpisywała dwukrotnie to samo: najpierw adres zameldowania, potem zamieszkania. Pokazano też, jak krótki formularz z paroma danymi można wypełniać dwukrotnie dłużej niż trzeba.
Kansei na plus
Z prezentacji których nie notowałem wyróżniło się kilka, które omawiały próby zbadania odczuć kansei w danym środowisku (na przykład użytkownicy programów CAD). Pozytywne jest to, że na Kansei w roku 2006 i 2007 tematyka była omawiana raczej teoretycznie – a tu już mamy wyniki badań. Polskie środowiska akademickie czują się pewniej z tym egzotycznym słowem i coś z niego wyciągają w naszych warunkach. :-)
Słowo o samej transmisji – było nieźle, choć wideo działało tylko w Windows Media Playerze (oraz IE). Dźwięk bardzo dobry, stereo (!). Obraz 640×480 trochę za słaby gdy na ekranie coś się działo, poza tym kamera nie zawsze obejmowała całość ekranu, co utrudniało czasami zrozumienie. Inna sprawa, że chyba po raz pierwszy spędziłem przy takiej transmisji kilka godzin bez znużenia jej formą.
Kansei na minus
Seminarium trwało ponad 9 godzin i to była główna przyczyna, dla której nie wybrałem się na całość (miałem tylko na 2 część, ale w końcu zostałem na transmisję online). To jest moim zdaniem za długo. 14 prezentacji, z których kilka spokojnie można było wyrzucić. Podobnie jak 2 lata temu mieliśmy na przykład naukowców z ASP czytających z kartki. To środowisko chyba „tak ma” – jakość prezentacji okrutnie odbiegała od tych politechnicznych (choć przecież kansei powinno interesować równie mocno humanistów!). Była też prezentacja prawie że handlowa, nie pasująca ani poziomem, ani tematyką do tej sali.
Podobnie jak rok temu – moim zdaniem – błąd organizatorów dotyczący publikacji. Czy naprawdę trzeba zamykać te referaty w postaci CD do kupienia? Nie lepiej będzie je opublikować (przy okazji: razem z prezentacjami), choćby z jakimś opóźnieniem? Niestety prezentacje z poprzednich seminariów również nie zostały udostępnione.
Podsumowanie
Ogólne wrażenia dobre, cieszę się, że choć mamy coraz więcej konferencji o usability – i tych darmowych i komercyjnych, to jest miejsce na konferencję naukową, albo przynajmniej akademicką.
Podobne artykuły:
Być może zainteresują Cię następujące artykuły:
- Kansei 2007 – relacja
- Kolejne Kansei
- Kansei – relacja z seminarium
- 5 powodów, aby pokochać Google Analytics
- Po trzecim Kansei
Zapisz się na kanał RSS bloga i dołącz do ponad 1500 czytelników RSS.
Komentarze czytelników
Komentarze z innych blogów
- Symetria o eye tracking?u na Kansei 2009 | Web usability blog
[…] Drózd na swoim blogu http://www.webaudit.pl także zamieścił relacje z Kansei 2009, w której prezentację Symetrii opisuje następująco: ?Obszary zainteresowań (ang. area of […]
- “Obszary zainteresowań, jako metoda analizy wyników badania eye tracking” - Kansei 2009 | Web usability blog
[…] Pobierz prezentację (PDF, 1,4 MB) ? Agnieszka Matysiak Szóstek – Podsumowanie Kansei 2009 ? WebAudit – Podsumowanie Kansei 2009 ? Kansei 2009 Jaką książkę chcielibyście omówić na […]
- Spotkanie na PJWSTK o cyklu projektowym UCD : WebAudit Blog
[…] 17.11.2009. Było ono zresztą już zapowiadane na WUD. Agnieszka prowadziła bardzo dobry wykład na ostatnim Kansei, myślę że warto posłuchać co powie o praktyce prowadzenia projektów zorientowanych na […]
- Symetria o eye tracking?u na Kansei 2009 | Usability & Interactive blog
[…] Drózd na swoim blogu http://www.webaudit.pl także zamieścił relacje z Kansei 2009, w której prezentację Symetrii opisuje następująco: ?Obszary zainteresowań (ang. area of […]
31 maja 2009 11:57
Ja używałem do porównywania konkurencyjnych serwisów dyferencjału semantycznego, czyli czegoś podobnego do repertory grid, z tym że atrybuty określałem z góry, a nie pochodziły one od badanych, więc to dużo prostsza sprawa w analizie. W przypadku badania ux serwisów wydaje mi się, że userzy mogą mieć pewne problemy z wymyślaniem atrybutów.
Dzięki za relację :)
31 maja 2009 12:02
Mówią, że w mapach myśli stosuje się 1-2 wyrazowe frazy (maksymalnie) czasem nawet słowa zastępując rysunkami.
Poza tym, to sposób, na osobistą metodę notatek,
a więc pokazywanie ich innym raczej im nic nie przekaże … no chyba, żeby trochę by je przerobić i uprościć … ale przy takiej skomplikowanej mapie raczej trudno ją rozszyfrować, o ile nie jest się jej autorem.
31 maja 2009 12:08
Mapy myśli są świetną metodą notowania, ale często mapka bywa zrozumiała tylko dla osoby, która ją tworzyła ;-)
31 maja 2009 21:51
@Jacek: zgadza się, tyle że w sytuacji szybkich notatek: mogę albo zapisać całą myśl w postaci zdania, albo jej nie zapisać, bo już kolejne myśli lecą – inaczej mówiąc, nie ma czasu na przetwarzanie. Po wykładzie powinienem taką mapkę przerobić (i sprawdzić czy sam ją rozumiem, bo miejscami są problemy :)
A mapkę pokazałam jako ciekawostkę – opis wykładów był w treści artykułu.
31 maja 2009 23:33
Byłem na seminarium osobiście. Również obawiałem się, że nie dam rady wysłuchać wszystkich prezentacji ale udało się. Mimo wszystko sprzyjała temu pogoda – nieźle lało :-)
Prezentację z ASP Katowice również oceniam negatywnie. Prelegent po prostu czytał z kartki a najśmieszniejsze było to, że jak się pogubił to zaczął czytać paragraf od początku. Natomiast chcę wziąć w obronę panią współprelegentkę. Pani Marta miała pięć minut podczas prezentacji do zaprezentowania swojej części. Tak jak jej starszy kolega odczytywała tekst przy czym zdarzało jej się wtrącać zdania :-) Tylko dzięki tej pani nikt z sali nie wyszedł. Prezentacje ASP mają swój podwójny urok ;-)
Mój ranking prezentacji jest taki:
1. Gość specjalny Gilbert Cockton, który pokazał swój sposób (tak sądzę) na analizę przypadków użycia. Chodzi o opisanie przypadku użycia za pomocą tabeli, która ma 5 nagłówką: Feelings, Beliefs, User Action, System response, Acts in the World. Wiersze w tej tabeli to kolejne kroki. W danej komórce wpisujemy akcję (jeśli to kolumna User Action) lub odczucie (Feelings: That looks very smart) itd. Elementy swobodnie łączymy linią, strzałką. Dzięki temu analizujemy przypadek użycie na kilku płaszczyznach. Możemy dodawać notatki poniżej.
2. dr Mościborski z PJWSTK Gdańsk pokazał powstającą jeszcze platformę Wirtualnego Kansei (określenie dra). W sumie pomysł jest ambitny, bo chce analizować emocje bez udziału ludzi :-)
3. Portal głosowy – działające rozwiązanie, przygotowane na PJWSTK. Teraz jest to firma zapewne przynosząca zyski. Gratulacje!
Generalnie seminarium podobało mi się. To nie jest spotkanie barcampowe, prelegenci bywają sztywni bo tacy są na co dzień. A materiały w formie CD do kupienia to wymóg środowiska naukowego – dzięki temu mają kolejny artykuł w monografii a ja mam ładne metalowe pudełko z artykułami :-)
2 czerwca 2009 17:53
Bardzo dziekuje za tak mila ocene mojej prezentacji i przepraszam za tempo mowienia – tym razem zapomnialam polozyc sobie na klawiaturze karteczki „Mow wolniej”:) Jesli chodzi o artykul opisujacy metodologie, to chetnie sie nim podziele.
2 czerwca 2009 20:47
@Aga: ale to nie była krytyka w żadnym stopniu. Ze studiów najmilej pamiętam tych wykładowców, którzy mówili tak dużo, szybko i ciekawie, że po wykładzie miałem kilkanaście stron notatek. :-)
Twój artykuł z konferencji mam, ale jeszcze go nie przeczytałem…
4 czerwca 2009 10:44
@ Robert Jasne, rozumiem:) ale to dobre przypomnienie dla mnie, ze powinnam uwazac na tempo, bo po polsku pewnie mowie jeszcze szybciej niz po angielsku. Bardzo fajny blog masz, tak swoja droga – z duza przyjemnoscia mi sie go czyta:)
5 czerwca 2009 09:17
@Tomasz Pietrzkowski: przepraszam, dopiero teraz wydobyłem Twoją wypowiedź ze spamu. Oczywiście wiem, że środowisku chodzi o „wydaną publikację”, ale to nie przeszkadza w jej udostępnieniu poza wersją CD. :-) Na przykład dr Mościbrodzki (którego prezentacja również mi się podobała) umieścił swoje artykuły z poprzednich Kansei na swojej stronie: http://www.wojmos.com/texts.html