Van der Geer, J., Hanraads, J.A.J., Lupton, R.A., 2010. The art of writing a scientific article. J Sci. Commun. 163 (2) 51-59.
Cały problem polega na tym, że nawet jeżeli istnieje czasopismo JCOM (Journal of Science Communication) to nie ma tam wzmiankowanego artykułu… Artykuły o podobnym tytule zdarzają się, ale są innego autorstwa i można je znaleźć gdzie indziej.
Fundatorzy grantów europejskich (w tym NCN z Polski) z 11 krajów, uczestnicy cOALition S zgodzili się, aby od roku 2020 efekty wszystkich grantów były publikowane wyłącznie w czasopismach Open Access.
Podpisane porozumienie (Plan S) definiuje dziesięć podstawowych zasad, które będą obowiązywać przy publikacji prac.
Najdziwniejszy jest zawód urzędnika administracyjnego Instytutu matematycznego:nie wie, czym administruje!
Hugo Steinhaus
W pewnym sensie jestem ogromnym zwolennikiem bibliometrii, choć z drugiej strony, mogę powiedzieć, że używana jest w zły sposób, który w znacznej części niweczy jej zalety. Nie można bowiem narzędzia podającego informacje strategiczne stosować do bieżącej taktyki.
Ale urzędnicy, którzy nie rozumieją tego czym administrują, potrzebują łatwych (i w miarę „automatycznych”) narzędzi oceny naukowców i ich grup. Bibliometria pasuje jak znalazł. A jak już naukowcy wiedzą, za pomocą jakich narzędzi są oceniani — rozpoczynają optymalizację. Gdy głównym kryterium jest:
liczba publikacji — publikują ogromne ilości przyczynkarskich prac wszędzie tam, gdzie chcą przyjąć;
liczba cytowań — tworzą „spółdzielnie” ułatwiające publikowanie, przynależność do nich jest opłacona koniecznością cytowania innych członków spółdzielni;
indeks H wydaje się być niezłą miarą starającą się ocenić i liczbę publikacji i liczbę ich cytowań (indeks równy N oznacza, że uczony ma N publikacji cytowanych więcej niż N razy). Ale ma też bardzo wiele wad, które próbowano zniwelować wymyślając różne jego modyfikacje.
Hirsch, poważny fizyk (podlegający również różnym automatycznym ocenom), dla żartu wymyślił ten (indeks H) wskaźnik i „wyliczył” go dla kilku znanych uczonych (noblistów i członków innych szanownych gremiów). I się przyjęło.
Co gorsza(?) naukowcy dosyć szybko przywiązali się do różnych miar ich dorobku i bardzo negatywnie reagują, gdy okazuje się, że jakiś wskaźnik zamiast im rosnąć — maleje.
Z drugiej strony wszyscy zdajemy sobie sprawę, że jeżeli ten sam parametr mierzymy za pomocą różnych przyrządów pomiarowych możemy dostać różne wyniki. Czasami różnice są niewielkie, czasami są znaczące, ale w każdym przypadku nabieramy wątpliwości do jakości urządzeń pomiarowych. Czasami jednak wynik (pomiaru) powstaje w efekcie złożonej procedury pomiarowej i obliczeniowej. W takiej sytuacji cała metodologia, zestaw dostępnych danych, założenia — wszystko ma wpływ na wyniki. Jeżeli dostaje się wyniki powtarzalne — trudno metodę kwestionować.
Politechnika Wrocławska jest uczelnią, która jako pierwsza w Polsce rozpoczęła zbieranie informacji na temat publikacji swoich pracowników. Są one gromadzone w bazie DONA. Oprócz tego podjęła poważny wysiłek aby informacje te przetwarzać dostarczając analizy zainteresowanym pracownikom i kierownictwu Politechniki Wrocławskiej. Uważam, że pracownicy tym zajmujący wykonują kawał bardzo dobrej i potrzebnej pracy.
Science Citation Index (SCI) powstał w latach 60. zeszłęgo stulecia i stał się podstawą „sławy” ISI (Institute for Scientific Information w Filadelfii). Charakterystyczne tomy SCI były podstawową pozycją w każdej „czytelni czasopism bieżących” i bardzo ważnym narzędziem pozwalającym (w czasach przed-internetowych) stosunkowo łatwo śledzić „sznureczek” cytowań jakiejś publikacji w czasie. SCI był wówczas, (zwłaszcza gdy egzemplarze publikacji zdobywało się wysyłając na adres autora pocztówkę–prośbę o odbitki) niezastąpionym narzędziem. Losy ISI były bardzo burzliwe, zmieniał on swoich właścicieli ale podstawowy serwis Web of Science ma się bardzo dobrze. Na przykład Fińska Akademia Nauk przedstawia systematyczne (co dwa lata) oceny nauki fińskiej przygotowywane na podstawie danych WoS (wykorzystując bibliometrię do ocen strategicznych).
Nieco poźniejsza inicjatywa to różne próby wydawnictwa Elsevier do stworzenia wyszukiwarki prac naukowych (jak, na przykład Scirus), które przekształciły się w końcu w bazę Scopus. Podstawowa różnica, która wyróżnia serwis Scopus (i wszystkie z nim związane) to fakt, że Elsevier jest jednym z największych wydawców literatury naukowej i ma dostęp do wszystkich swoich publikacji. Jako jeden z pierwszych firma zadbała o stworzenie unikatowych identyfikatorów uczonych i podjęła działania, żeby łączyć ich z miejscem pracy.
Mendeley — (działa od 2007 roku) aplikacja i serwis społecznościowy będące (od 2013 roku) własnością firmy Elsevier.
Google Scholar (udostępniony w 2004 roku). Początkowo tylko wyszukiwarka, dziś również platforma informacyjna. Bardzo agresywnie przeszukuje udostępnione w Internecie pliki i łączy je z informacjami na stronach wydawnictw. Dzięki temu często udostępnia pełne teksty korzystając ze źródeł innych niż wydawców. Platforma informacyjna pozwala naukowcowi umieścić informacje o swoich pracach, a wyszukiwarka Google będzie „zliczała” automatycznie cytowania.
Microsofy Academic (powstał jako Microsoft Academic Research w roku 2006 jako odpowiedź na powstanie Google Scholar). Dosyć kiepsko radzi sobie na rynku, był zamykany, otwierany i w końcu został reaktywowany jako Microsoft Academic i zintegrowany z z wyszukiwarką Bing. Posiada sporą bazę danych publikacji naukowych (jedynie tam znalazłem jakąś wzmiankę o wniosku patentowym, którego kiedyś byłem współautorem; patent nie został przyznany).
Zotero — (działą od 2006 roku) aplikacja ułatwiająca gromadzenie metadanych i baz bibliograficznych. O ile pamiętam były jakieś plany udostępniania swoich baz bibliograficznych, ale nie do końca wiem jak to się skończyło.
Research Gate — (działa od 2008 roku) medium społecznościowe dla naukowców. Udostępnia podstawowe informacje o publikacjach oraz, bardzo czesto, ich pełne teksty. Przy czym dostępność pełnych tekstów czasami jest ograniczona wyłącznie dla innych użytkowników serwisu.
Academia.edu — (działa od 2008) komercyjne medium społecznościowe dla naukowców.
…
Wszystkie te firmy starają się stworzyć jakąś platformę wymiany informacji na temat publikacji. Modele biznesowe są różne, ale podstawą działania tych przedsięwzięć są gromadzone metadane i narzędzia do ich analizy. Jedną z podstawowych analiz jest zliczanie cytowań. Przyjrzyjmy się efektom pracy różnych serwisów. Do porównań wybrałem swoją współautorską pracę Optimum experimental design for a regression on a hypercube—generalization of Hoel’s result. Poniżej przedstawiam informacje o liczbie cytowań zaliczonych, przez różne serwisy:
Scopus (17)
WOS (17)
Microsoft Academic (19)
Google Scholar (23)
Dona (udostępnia publicznie jedynie cytowania po 2014 i tych jest tylko 2 (słownie dwa))
Nie jest tak, że wyniki różnią się drastycznie. Można powiedzieć, że praca została zacytowana 20 ± 3 razy. Nie wiemy, które z tych wyliczeń odrzucają autocytowania, nie wiemy (choć akurat tego to można czasami się dowiedzieć przy odrobinie chęci) czy 17 cytowań WOS to te same 17 cytowań ze skopusa.
Jak nie mamy pewności do liczby cytowań, to również indeks H (bożek wszystkich naukowców) będzie zaburzony: Według Google Scolara mój współczynnik za ostatnie pięć lat to 2 (a globalnie to 5). Według skopusa — jest on znacznie, znacznie niższy 🙁
Nie należy obrażać się na gorsze wyniki jakiegoś pomiaru, tylko cały czas pamiętać, że skoro oceniam kogoś za pomocą miarki skopusa to nie powinienem porównywać go z osobą ocenianą miarką Google Scholar. Wydaje się, że jest to elementarne założenie. Co niekoniecznie jest prawdą w różnego rodzaju wnioskach (na przykład o awans). Ale to już osobna historia.
Podsumowując zdaję sobie sprawę, że zestawienie, które przedstawiłem może być odbierane prze kogoś jako niesprawiedliwe. Ale proszę pamiętać, że skorzystałem z jednego narzędzia do oceny wszystkich. I wyniki są mniej-więcej porównywalne. Pierwsza część (podająca podstawowe informacja na temat naszych osiągnięć dotyczy okresu 2013–2018 (co jest napisane już w drugim ustępie), to jest nieco więcej niż pięć lat, ale zdajemy sobie sprawę, że rok 2018 ciągle jeszcze trwa). Cześć druga, dokonująca porównań z Wydziałem obejmuje okres dłuższy: 2010–2018 (co nie jest napisane, ale wynika z opisu osi wykresów).
Na stronach serwisu SciVal (dostęp może mieć, po zarejestrowaniu, każdy z sieci Politechniki Wrocławskiej) można się zapoznać z dostępna dokumentacją opisującą metodologię i znaczenie poszczególnych wskaźników. (Nie upubliczniam ich tutaj, bo nie mam pewności czy mogę to zrobić.)
Program pandoc to narzędzie działające w linii poleceń. Więc poniższy wpis może bardziej zainteresować użytkowników korzystających z linii poleceń na co dzień. Dodać trzeba, że w jednakowym stopniu dotyczy to systemu Windows jak i Linux.
Jak wiadomo,standardem *de facto*tworzenia dokumentówna uczelni jest Najpopularniejszy Komercyjny Procesor Tekstu.Władze Uczelnirównieżchętniezniego korzystają.RównieżOficyna Wydawnicza dokumenty dopublikacji najchętniej przyjmujewtym formacie.
Organizatorzy konferencji nie wyobrażająsobie,żebyużyćinnego formatu.
Co więcej Ministerstworównieżpreferujetęaplikacjęrozsyłająprzygotowane dokumentyioczekującsprawozdańwtym formacie.Jedynie dokument podlegającepóźniej automatycznemu przetwarzaniu przesyłanesąwinny sposób.
Natomiast istnieje wiele innych sposobówprzygotowania tekstu—czy na swoje potrzeby,czy dopublikacji.Jednymznich jest LaTeX.
Tym razem chciałem jednak wspomniećoformacie[Markdown](https://daringfireball.net/projects/markdown/).
Wprowadzenie
------------
[Markdown](https://en.wikipedia.org/wiki/Markdown) to język znaczników (oraz program), który został opracowany w 2004 roku ([John Gruber](https://en.wikipedia.org/wiki/John_Gruber) i [Aaron Swartz](https://en.wikipedia.org/wiki/Aaron_Swartz)) z myślą o łatwiejszym przygotowywaniu zawartości sformatowanej jako HTML.
Język wzbudziłspore zainteresowanieiobrósłróżnymi interesującymi narzędziami(zktórych najciekawszym jest program[pandoc](http://www.pandoc.org/) — uniwersalny konwerter pozwalający dokonywać konwersji pomiędzy rożnymi formatami dokumentów.
Cechy charakterystyczne formatu markdown
----------------------------------------
1.Plikźródłowywtym formacie jest bardzo prostym plikiem tekstowym,który możebyćprzygotowanyzużyciem najprostszych narzędzi.
2.Tworzonemu dokumentowi można nadawaćstrukturę:dzielićna rozdziały,podrozdziały,…
Jest bardzo wiele edytorówoferujących jakieśwsparcie dlajęzyka markdown.
*Najprostszy **ogólny**edytor tekstowy(notatnik,Notepad++,…wWindows lub jakikolwiek edytor tekstowy pod linuksem:vim,geany,…)
Wnajprostszym przypadkubędzie jedynie kolorowanie składni.
*Sympatycznym,uniwersalnymiprostym rozwiązaniem rozwiązaniem„wielosystemowym“możebyćedytor[caret](https://chrome.google.com/webstore/detail/caret/fljalecfjciodhpcledpamjachpmelml), instalowany jako rozszerzenie do przeglądarki Google Chrome.
---
Jest teżcałagrupa uniwersalnych edytorówoferujących,na przykład,kolorowanie składni dla bardzo wielujęzyków,wtymidla markdown.Praktycznie każdy„dobry”edytor dla programistówbędzie oferowałjakieśwsparcie dla markdown.
Na drugim końcusąspecjalizowane edytory oferujące zaawansowane wsparcie dla markdown.Należądonich[Caret](https://caret.io/) czy [Typora](https://typora.io/) oferujące zaawansowany podgląd tworzonych dokumentów, edycję wizualną czy konwersję do wielu formatów.
Jak wiadomo, standardem de facto tworzenia dokumentów na uczelni jest Najpopularniejszy Komercyjny Procesor Tekstu. Władze Uczelni również chętnie z niego korzystają. Również Oficyna Wydawnicza dokumenty do publikacji najchętniej przyjmuje w tym formacie.
Organizatorzy konferencji nie wyobrażają sobie, żeby użyć innego formatu.
Co więcej Ministerstwo również preferuje tę aplikację rozsyłają przygotowane dokumenty i oczekując sprawozdań w tym formacie. Jedynie dokument podlegające później automatycznemu przetwarzaniu przesyłane są w inny sposób.
Natomiast istnieje wiele innych sposobów przygotowania tekstu — czy na swoje potrzeby, czy do publikacji. Jednym z nich jest LaTeX.
Tym razem chciałem jednak wspomnieć o formacie Markdown.
Wprowadzenie
Markdown to język znaczników (oraz program), który został opracowany w 2004 roku (John Gruber i Aaron Swartz) z myślą o łatwiejszym przygotowywaniu zawartości sformatowanej jako HTML. Język wzbudził spore zainteresowanie i obrósł różnymi interesującymi narzędziami (z których najciekawszym jest program pandoc — uniwersalny konwerter pozwalający dokonywać konwersji pomiędzy rożnymi formatami dokumentów.
Cechy charakterystyczne formatu markdown
Plik źródłowy w tym formacie jest bardzo prostym plikiem tekstowym, który może być przygotowany z użyciem najprostszych narzędzi.
Tworzonemu dokumentowi można nadawać strukturę: dzielić na rozdziały, podrozdziały,…
Można tworzyć listy proste i numerowane.
Można używać wyróżnień (wytłuszczenie, pochylenie tekstu)
Można wstawiać rysunki.
Można wstawiać fragmenty kodu.
Można korzystać z odsyłaczy.
Bardzo łatwo wstawiać proste tabele.
Narzędzia
Edytory
Jest bardzo wiele edytorów oferujących jakieś wsparcie dla języka markdown.
Najprostszy ogólny edytor tekstowy (notatnik, Notepad++,… w Windows lub jakikolwiek edytor tekstowy pod linuksem: vim, geany,…)
W najprostszym przypadku będzie jedynie kolorowanie składni.
Sympatycznym, uniwersalnym i prostym rozwiązaniem rozwiązaniem „wielosystemowym“ może być edytor caret, instalowany jako rozszerzenie do przeglądarki Google Chrome.
Jest też cała grupa uniwersalnych edytorów oferujących, na przykład, kolorowanie składni dla bardzo wielu języków, w tym i dla markdown. Praktycznie każdy „dobry” edytor dla programistów będzie oferował jakieś wsparcie dla markdown.
Na drugim końcu są specjalizowane edytory oferujące zaawansowane wsparcie dla markdown. Należą do nich Caret czy Typora oferujące zaawansowany podgląd tworzonych dokumentów, edycję wizualną czy konwersję do wielu formatów.
Programy do konwersji
Język markdown powstał równocześnie z perlowym skryptem (programem) umożliwiającym konwersję do HTML. Wraz z rozprzestrzenianiem się standardu przybywało aplikacji korzystających z tego sposobu prezentowania zawartości.
Dziś jednym z dających największe możliwości programów jest pandoc.
Kto używa markdown
Z markdown (lub specjalnych jego wersji) korzysta:
System LaTeX posiada (może nie znakomite, ale całkiem niezłe) narzędzie do tworzenia bibliografii. Jest to system BibTeX.
Działa on w ten sposób, że tworzymy bazę danych zawierające wszelkie niezbędne informacje o publikacjach, a pisząc pracę odwołujemy się do rekordów tej bazy. Każdy rekord powinien posiadać swój unikatowy identyfikator służący do tworenia odwołań. Każdy rekord powinien zawierać minimalny, niezbędny zestaw informacji bibliograficznych. Zestaw ten jest różny dla różnych publikacji: inny dla artykułu, a inny dla książki. W najprostszym wypadku w tekście umieszczamy polecenie
\cite{identyfikator_rekordu} i o sprawie ,,zapominamy”.
Druga część systemu to mechanizm pozwalający podczas kompilacji dokumentu wyciągnąć z bazy danych informacje o cytowanych dokumentach i sformatować je zgdonie z wymaganym szablonem, a następnie wszystko połączyć w całość: w miejscu tekstu gdzie pojawiło się odwołanie do rekordu (
\cite{identyfikator_rekordu}) pojawi się odpowiedni symbol cytowania (na przykład liczba w nawiasach kwadratowych: [123]), a w innym miejscu (na przykład na końcu dokumentu) pojawi się ułożona w zdefiniowanej kolejności (alfabetycznie, według nazwisk pierwszego autora, albo chronologicznie według dat publikacji, albo w kolejnosci cytowania w pracy) lista prac (oznaczonych odpowiednimi symbolami). Numerkami w nawiasach kwadratowych, na przykład. Co więcej bibliografia będzie sformatowana zgdonie z wymaganiami wydawcy (co, swoją drogą jest sporym problemem: dobrzy wydawcy dostarczają odpowiednie szablony, kiepscy mają jedynie wskazówki jak powinien wyglądać wpis dotyczący książki, artykułu, referatu konferencyjnego,… Wówczas Autor musi albo taki szablon stworzyć (nie zawsze jest to łatwe) albo wybrać taki, który jak najbardziej jest zgodny z oczekiwaniami wydawcy. To też nie jest łatwe.
Osobną kwestią jest wypełnienie bazy danych rekordami. Tak się składa, że system BibTeX jest jednym z niewielu standardów udostępniania informacji bibliograficznych powszechnie uznanych i stosowanych przez naukowców na całym świecie (choć niekoniecznie w Polsce). W związku z tym bardzo wielu wydawców i większość publikacyjnych baz danych oferuje metadane artykułów w tym formacie. Istnieją również narzędzia pozwalające na podstawie DOI odzyskanie metadanych w formacie BibTeXa (http://www.doi2bib.org/).
Najlepszą metodą tworzenia takiej bazy jest metoda ręczna: jak mamy w ręku oryginał tekstu, który chcemy w niej zachować, wpisujemy do bazy niezbędny zestaw informacji. Program JabRef podpowie, które pola są niezbędne. Nie jest to wielka praca, ale trzeba ją wykonać wtedy kiedy oryginał mamy w ręku.
Z drugiej strony cytujemy często prace które znajdujemy w Internecie poszukując określonych słów kluczowych albo fraz. Google Scholar oferuje możliwość udostępnienia informacji blibliograficznych. Załóżmy że szukamy tekstu zatytułowanego The alternating decision tree learning algorithm. Google Scholar znajduje nawet tekst źródłowy, co więcej informuje, że artykuł jest całkiem popularny (jest tam informacja ile razy był cytowany).
Jest wreszcie informacja pozwalająca mająca, w zamierzeniu Autorów systemu, ułatwić zacytowanie artykułu. Klikamy w ,,Cytuj” i w następnym okienku znajdujemy możliwość uzyskania cytowania w formacie BibTeXa.
Bardzo wielu PT Twórców mając coś takiego wkleja odpowiedni rekord do swoje bazy danych. Wyszukiwarka jest wspaniała! Znalazła nam pożyteczny tekst, znalazła jego wersję elektroniczną i jeszcze oferuje metadane. A wszystko za darmo!
Problem pojawi się na znacznie późniejszym etapie, podczas formatowania bibliografii, gdyż jako tytuł książki w której ukazał się artykuł konferencyjny mamy podanie ,,icml”, a cytowana praca objawia się tak:
[50] Y. Freund and L. Mason, The alternating decision tree learning algorithm,” in icml, Vol. 99, 1999, pp. 124–133.
I takie kursywiane icml przyciąga uwagę i, właściwie, nie pozwala na odnalezienie oryginału w sposób klasyczny (to znaczy nie korzystając z Internetu). Można, oczywiście, machnąć na to ręką: jak ktoś nie ma Internetu niech zajmie się czym innym niż pisaniem prac. Sam tytuł pozwala dosyć łatwo pracę odnaleźć (i wielu PT Autorów wychodzi z tego założenia dostarczając czasami tylko tytuł, albo tytuł i nazwisko jednego z twórców). W tym przypadku zaprotestowała Redakcja Techniczna czasopisma: zadając pytanie ,,To gdzie ta praca została opublikowana?” Ale Google Scholar podaje tylko ten wynik. Bo najlepszy, bo z tekstem źródłowym.
Po przełączeniu się na wyszukiwarkę normalną dostajemy nieco więcej informacji. Znajdujemy odsyłacz do biblioteki elektronicznej ACM, gdzie jest już nieco więcej informacji na temat źródła, co więcej również tu możemy poprosić o rekord zawierający metadane referatu w formacie BibTeXa:
Dzisiejszy odcinek cyklu o przemowach poświęcam referatom na konferencjach naukowych. Zapraszam do lektury.
Zwykły referat konferencyjny nie trwa zbyt długo, najwyżej około dwudziestu minut. Głównym celem jest prezentacja wyników własnych badań. Nacisk stawiam na słowo prezentacja. Nie systematyczny wykład jakiejś teorii, tylko pokazanie istoty rzeczy.
Bardzo dziwny ranking. Bo to już nie wystarczą ani publikacje ani cytowania. Potrzebne są jeszcze indywidualne konta w serwisie Google Scholar.
Z drugiej strony zarządza tym Webometrics, o którym nie mam najlepszego zdania od czasu, gdy nie mogąc dla wyliczyć jakiegoś parametru dla wielu uczelni — ustawił go na zero (ale uczelniom, dla których mógł go wyliczyć pozostawił bez zmian).
Politechnika Wrocławska znalazła się w tym rankingu na 1038 miejscu. W rankingu nie występuje AGH co jest raczej dziwne.
Osiem polskich uczelni znalazło się w rankingu najlepszych uniwersytetów na świecie – według liczby cytowań prac naukowych zarejestrowanych na indywidualnych profilach Google Scholar. Najlepszy spośród polskich uczelni – Uniwersytet Warszawski, uplasował się na 562. pozycji. Wygrał amerykański Harvard University.
Prawo autorskie oprócz wielu obostrzeń w wykorzystywaniu dzieł cudzych zawiera szereg mechanizmów z generowaniem dochodów dla autorów. Jednym ze źródeł tych dochodów jest tak zwana opłata reprograficzna. Ale nie jest to jedyne źródło. I autorom przysługuje jakiś udział w zbieranych w ten sposób środków. Emanuel Kulczycki spróbował i otrzymał wynagrodzenie za pracę umieszczoną w czasopiśmie o otwartym dostępie…
Zawsze jest idealny moment, aby upewnić się, czy należy nam się wynagrodzenie w ramach repartycji indywidualnej. W Polsce funkcjonuje Stowarzyszenie KOPIPOL, które – upraszczając – jest tym dla autorów publikacji naukowych, czym ZAIKS dla muzyków. Stowarzyszenie KOPIPOL zarządza systemem repartycji indywidualnej, czyli dzieli środki między uprawionych autorów publikacji naukowych i technicznych. Owa repartycja, czyli wynagrodzenie, pochodzi od producentów i importerów urządzeń kopiujących (w skrócie: punktów ksero). To, komu należy się wynagrodzenie (nawet kilka– kilkanaście tysięcy złotych), wynika z badań statystycznych przygotowanych dla KOPIPOL-u przez CEM Instytut Badań Rynku i Opinii Publicznej w Krakowie. Co ważne, wystarczy sam fakt opublikowania przez nas utworu – nigdzie nie musimy i nie musieliśmy się zapisywać. Zatem jeśli opublikowaliście tekst, artykuł, książkę, tłumaczenie w jednym z tych […]