segunda-feira, 11 de agosto de 2025

Nas asas da hipocrisia: O pouco magnífico Falcão no ninho quente da endogamia

 

https://www.publico.pt/2025/08/11/opiniao/opiniao/endogamia-universidades-2142727

Num artigo do jornal Público, o reitor da Universidade de Coimbra, o catedrático Amílcar Falcão, defende que os anormalmente elevados níveis de endogamia da sua universidade são culpa dos Governos deste país, que obrigaram as universidades a contratar os seus doutorados. Trata-se porém de uma argumentação deplorável, que faz jus ao provérbio, "não há pior cego do que aquele que não quer ver", e que só pode envergonhar qualquer pessoa que se tenha diplomado na universidade de Coimbra, como é o meu caso.

Se a peregrina tese do reitor Falcão fosse verdade, então as unidades orgânicas dentro de cada uma das universidades públicas teriam níveis de endogamia muito similares; não é, porém, isso que se verifica. Uma consulta ao primeiro relatório nacional sobre a endogamia académica, que pasme-se só viu a luz do dia no ano mágico de 2016, mostra que na universidade de Coimbra, a universidade pública que possui o recorde da maior percentagem média, há unidades com uma percentagem de endogamia que variam entre 62% e pasme-se 100%. E nas universidades do Porto e de Lisboa, que o Reitor Falcão garante que pela sua idade, são as únicas que se podem comparar à sua universidade, há unidades orgânicas com percentagens de endogamia que chegam a 45% e como é óbvio, a não ser na matemática alternativa do Reitor Falcão, há uma grande diferença entre 45% e 100%, que é suficiente para implodir a sua pouco iluminada e até hipócrita argumentação

Do mais alto representante de uma universidade pública, financiada pelos impostos dos contribuintes, espera-se, acima de tudo, responsabilidade e integridade. Que, perante uma situação de elevada gravidade, assuma de forma clara e inequívoca as suas responsabilidades, sem recorrer, como foi o caso, a tentativas pouco dignas de transferir para terceiros essas responsabilidades. O cargo que ocupa não é apenas uma função administrativa; é um compromisso com a ética, o rigor e a transparência. Teria, por isso, sido desejável que tivesse tido a grandeza, que não teve, de pedir desculpas por uma situação que, para além de comprometer a credibilidade da instituição que dirige, expõe o nosso país ao descrédito no cenário internacional, já que universidades com elevadas percentagens de endogamia académica são coisa típica de universidades de países do terceiro mundo.

Declaração de interesses - Declaro que no final de 2015 fui o primeiro subscritor de uma petição contra a endogamia académica. Declaro ainda que em Julho de 2018, critiquei o agora Reitor Falcão pela sua reprovável estratégia de compra de estrelas a uma empresa (QS) que produz um ranking da treta, num email que o catedrático Carlos Fiolhais na altura achou por bem reproduzir no blogue "De Rerun Natura", num post com data de 15 de Agosto de 2018 e por conta dessa critica recebi um email "pouco simpático" do agora Reitor Falcão.

PS - Tendo em conta que a endogamia académica é sinónimo de viciação concursal, leia-se, sistemático e descarado favorecimento dos candidatos "da casa", reproduzo abaixo, as duas questões que coloquei na parte final, de um altamente visualizado post anterior

1 - será que um Professor que participa activamente na viciação de um procedimento concursal, ou que seja o beneficiário directo dessa viciação, reúne suficientes condições de ética, isenção e imparcialidade, para poder avaliar os seus alunos de forma rigorosa, sem que se corra o risco de favorecer alguns ou algumas, com ou sem troca de contrapartidas ?

2 - será que um Professor que participa activamente na viciação de um procedimento concursal, ou que seja o beneficiário directo dessa viciação, reúne suficientes condições de ética, isenção e imparcialidade, que minimizem o risco de no futuro se dedicar à pratica de actos ilícitos, como plagiar o trabalho de colegas ou falsificar resultados de investigações ?

domingo, 10 de agosto de 2025

As confusões de um conhecido e eficiente catedrático da universidade de Lisboa


Num artigo publicado no caderno de economia do semanário Expresso, o antigo presidente do IST, o catedrático Arlindo Oliveira, escreve que há uma obrigação moral para usar a IA por conta da eficiência que ela promove e vai ao ponto de afirmar que essa obrigação não é só das empresas mas também do Estado Português. Aquilo que ele porém se esqueceu foi de esclarecer qual o artigo ou artigos da Constituição da República Portuguesa (CRP) que permitem perceber essa obrigação moral. Ou talvez o referido catedrático deseje uma revisão da CRP para que a eficiência possa no futuro passar a ter o mesmo valor das obrigações morais vertidas na mesma, que incluem por exemplo, a dignidade da pessoa humana,  o direito à vida, à integridade pessoal, à liberdade e segurança etc etc. 

A eficiência é importante, mas esperemos que neste país não se chegue ao ponto (de com o apoio do Chega) ela seja elevada a uma tal categoria. De mais a mais, a adopção cega de IA, motivada por uma obsessão pelo aumento da eficiência, pode sim contribuir para violar várias obrigações morais vertidas na referida CRP, como seja por exemplo a automatização de serviços públicos, que pode excluir cidadãos idosos, ou com baixa ou mesmo nula literacia digital, pois recorde-se que Portugal possui ainda no século XXI, algumas centenas de milhares de pessoas analfabetas, ou como seja por exemplo pela utilização da IA na determinação de benefícios sociais, que correu de forma tão dramática na Holanda, quando mais de 26 000 famílias foram injustamente acusadas de fraude e que levou à queda do Governo e ao pagamento de mais de mil milhões de euros em indemnizações a essas familias  https://observador.pt/opiniao/o-algoritmo-que-derrubou-um-governo/

Pessoalmente e no que diz respeito à IA acho que o ex-presidente do IST, devia estar menos ocupado a produzir sentenças avulsas sobre moralidade (uma área em que já se percebeu não é especialista) e muito mais preocupado com o dilema que enfrenta o actual presidente do IST, e que noutros países já se reflecte na fuga dos estudantes do ensino superior, por conta da elevada probabilidade da sua formação se tornar redundante, muito antes ainda daqueles a terem terminado, vide artigo publicado há poucos dias na Forbes https://www.forbes.com/sites/victoriafeng/2025/08/06/fear-of-super-intelligent-ai-is-driving-harvard-and-mit-students-to-drop-out/

PS - Ou talvez o catedrático Arlindo Oliveira não tenha ainda alcançado os dilemas morais, que agora se levantam aos recém-diplomados, relativamente aos quais um artigo publicado na conhecida revista The Economist, afirmou que estão "lixados" (screwedhttps://19-pacheco-torgal-19.blogspot.com/2025/06/a-tragedia-dos-milhoes-de-recem.html

quinta-feira, 7 de agosto de 2025

My letter to the editor of the Journal of Informetrics criticising the paper "From 'Sleeping Beauties' to 'Rising Stars'


See below the text of my letter criticizing the thesis proposed by J. Gorraiz, the author of the paper, who is affiliated with the University of Vienna.



J. Gorraiz’s recently published paper presents a conceptually stimulating and metaphor-laden examination of the ideological foundations of bibliometrics, tracing their origins to religious, moral, and philosophical traditions. While such a reflective approach is thought-provoking, the paper suffers from several substantive limitations—particularly when read in light of ongoing debates surrounding the practical utility, cost-efficiency, and predictive power of bibliometric tools in research evaluation.

The paper’s central thesis—that bibliometrics derive from religious and philosophical traditions—is built on an extended metaphorical scaffolding. Citations are likened to divine judgment, H-indexes to spiritual tallies, and “sleeping beauties” to secular miracles. While these metaphors may have rhetorical appeal, they ultimately distract from more pressing empirical and methodological issues. There is no engagement with recent literature on field-normalized citation metrics, responsible metric frameworks (such as the Leiden Manifesto or DORA), or citation dynamics in different disciplines. Nor does the paper propose concrete methodological or policy alternatives. The result is a text rich in allegory but impoverished in evidence, leaving readers without clear guidance for improving bibliometric practice.
 
Gorraiz asserts that a low citation count does not imply irrelevance; it may reflect novelty. While this claim holds some truth, the argument is selectively framed and omits crucial empirical counterevidence. Notably, he fails to mention the robust findings from Clarivate Analytics, whose “Citation Laureates” methodology—based on identifying papers with exceptionally high citation counts (over 1,000)—has successfully predicted more than 70 Nobel Prize winners. Moreover, it is worth recalling the analysis by Traag and Waltman (2019), which demonstrated that citation-based metrics exhibit a strong correspondence with expert peer review assessments, particularly in fields such as Physics, Clinical Medicine, and Public Health. 

These findings collectively suggest that, far from being inherently unreliable, well-calibrated citation metrics can serve as a meaningful and practical complement—or, in some contexts, a viable alternative—to traditional peer review in the evaluation of research performance. These results strongly suggest that novelty and high citation impact are not mutually exclusive, and in fact, may often coincide. By disregarding this evidence, the paper constructs a false dichotomy between citation count and originality, while ignoring one of the most compelling demonstrations of bibliometrics' predictive capacity.
 
A still more consequential omission in the author’s analysis lies in the near-total absence of engagement with the underlying economic rationale for the widespread adoption of bibliometric tools. While the discussion frames citation indicators primarily as symbolic gestures or ritualistic artefacts within the academic system, it largely overlooks their pragmatic role as scalable and cost-efficient proxies in research evaluation—particularly in contexts where peer review faces severe logistical and financial constraints. Peer review, though indispensable in certain contexts, is notoriously resource-intensive: national research assessments such as the UK’s Research Excellence Framework (REF) have incurred costs exceeding £250 million per evaluation cycle. Similar pressures are evident in hiring processes, tenure reviews, and grant allocation panels, all of which require substantial investments of time, coordination, and expert labour. 

Crucially, empirical evidence undermines the dismissive treatment of bibliometrics: Abramo et al. (2019) demonstrated that citation-based indicators not only outperform peer review in predicting subsequent scholarly impact, but also exhibit increasing predictive accuracy over time. These findings bring into sharp relief the structural trade-offs between speed, cost, and precision that evaluation systems must navigate. Bibliometric measures—despite their well-known limitations—offer reproducible, transparent, and broadly applicable screening mechanisms capable of alleviating the evaluative burden on human reviewers. Any critique that ignores these economic and operational realities, while failing to articulate a credible alternative framework, risks producing an analysis that is philosophically stimulating yet practically inert in the policy and administrative domains where evaluation decisions are actually made.
 
Which approach is more detrimental to the progress of science: implementing a hybrid model of abbreviated peer review augmented by quantitative metrics—thereby conserving substantial financial resources—or relying exclusively on comprehensive, resource-intensive peer review protocols that allocate those funds away from direct research support? Moreover, how might the latter paradigm exacerbate inequities in research assessment for low-income countries, which lack the financial capacity to underwrite such costly evaluation processes?
 
Finally, allow me to provide you with some insights into my homeland, Portugal, which has experimented with both approaches. In a prior Portuguese research assessment conducted in 2013, the international experts serving on the evaluation panels enjoyed complete autonomy. They had the freedom to evaluate research units through on-site visits and also had access to a comprehensive bibliometric analysis, utilizing data from Scopus, which was expertly conducted by Elsevier and generated a range of valuable metrics (Publications per FTE, Citations per FTE, h-index, Field-Weighted Citation Impact, Top cited publications, National and International Collaborations).
 
However, in recent years, we experienced a shift in perspective, with a Science Minister who shared similar sentiments with those critical of bibliometrics. During the most recent research assessment in 2018, which involved the evaluation of 348 research units comprising nearly 20,000 researchers, the Evaluation Guide clearly dictated that absolutely no metric could be used by the panels (note that all panels were composed by international experts, 51 from UK, 21 from USA, 17 from Germany, 17 from France, 11 from The Netherlands, 8 from Finland, 8 from Ireland, 7 from Switzerland, 6 from Sweden, 5 from Norway and also from other countries).
 
Nonetheless, once the research assessment had concluded, I conducted an extensive search through all the reports across various scientific areas. What I discovered was that the reviewers assigned significant importance to the quantity of publications and the perceived “quality” of journals, even though such considerations were expressly prohibited by the Evaluation Guide. I found that “publications”, “quartiles” and even “impact factors” were mentioned in the assessment reports more than 500 times. Meaning that in the absence of any metric the international experts (somewhat ironically) decide to use the worst of them all. Such findings lend strong support to the observations of Morgan-Thomas et al. (2024), who noted that the historically robust association between journal rankings and expert evaluations persists unabated, despite institutional endorsements of the principles articulated in DORA. This enduring pattern underscores a profound tension between formal evaluative guidelines and the implicit heuristics that experts continue to apply in practice.