Forzar la elección a una sola categoría antes de publicar

Ética de la publicación elsevier

La revista publicará trabajos de ciencias de la biodiversidad que contengan datos taxonómicos, florísticos/faunísticos, morfológicos, genómicos, filogenéticos, ecológicos o medioambientales sobre cualquier taxón de cualquier era geológica de cualquier parte del mundo sin límite inferior o superior al tamaño del manuscrito. Por ejemplo:

Para más información, puede consultar el Editorial Beyond dead trees: integrating the scientific process in the Biodiversity Data Journal y el comunicado de prensa The Biodiversity Data Journal: Legible por humanos y máquinas.

Los manuscritos para el Biodiversity Data Journal sólo pueden enviarse desde la Herramienta de Redacción ARPHA (AWT) en línea, colaborativa y de autoría de artículos, que ofrece un amplio conjunto de plantillas de artículos predefinidas, pero flexibles.

Para facilitar el proceso de redacción, la AWT también proporciona una función automatizada de búsqueda e importación de bases de datos externas, incluyendo: registros electrónicos; catálogos; datos de ocurrencia en formato Darwin Core; y bibliografías de referencia.

En el entorno AWT, los autores pueden invitar a colaboradores externos, como mentores, revisores potenciales, editores lingüísticos y de copia, colegas, etc., que no son autores, pero que pueden observar y comentar el texto durante la preparación del manuscrito.

Apa 7ª edición de referenciación

Cualquiera que haya realizado una encuesta probablemente haya recibido la opción de “marcar todo lo que corresponda” al responder a una pregunta. Se trata de una instrucción muy utilizada en la recogida de datos por su facilidad y eficacia. Pero cuando se diseña un cuestionario de encuesta en línea, hay más de una forma de pedir a un encuestado que seleccione qué opciones de una serie se aplican a él.

  Geoposicionamiento de tus entradas

Un encuestador puede mostrar a los encuestados una lista y pedirles que seleccionen todas las que se aplican, o puede preguntarles por separado sobre cada opción. Los dos métodos no siempre arrojan resultados idénticos. Los estudios han indicado repetidamente que más encuestados apoyan (responden “sí”) cada opción con el segundo método, conocido como “elección forzada”, lo que a veces da lugar a estimaciones muy diferentes. Sin embargo, los estudios anteriores no han dejado claro qué formato de pregunta produce estimaciones más precisas. 1

El Centro de Investigación Pew, a través de su Panel de Tendencias Estadounidenses (ATP), realizó un experimento aleatorio de gran envergadura en el que se comparaban estos dos formatos de pregunta. El experimento formó parte de una encuesta realizada del 30 de julio al 12 de agosto de 2018 entre 4.581 adultos estadounidenses. A los encuestados se les preguntó si ellos o alguien de su familia inmediata habían experimentado varios eventos indeseables (por ejemplo, tratados por adicción a las drogas o al alcohol, o perdido una casa por ejecución hipotecaria). En el estudio se asignó aleatoriamente a la mitad de los encuestados la respuesta mediante una lista de selección, mientras que la otra mitad respondió a una serie de preguntas de elección forzada “sí/no”.

Ética de publicación para autores

Los miembros del Consejo Editorial de PRL son seleccionados por los editores y nombrados por el editor jefe. El mandato de los miembros del Consejo es de tres años. Los editores pueden solicitar su asesoramiento en cualquier fase del proceso de revisión y actúan como árbitros en apelaciones formales.

  WordPress para iPhone 1-3

La PRL publica artículos sobre nuevos resultados. La publicación previa de un conjunto de resultados generalmente excluye la consideración de una Carta posterior. Además, los resultados no deben ser una extensión marginal de un trabajo publicado anteriormente; no deben ser una repetición de resultados anteriores sobre un sistema similar, sin una perspectiva física adicional. La presentación de un manuscrito implica que el mismo no ha sido ya publicado y que no está siendo considerado para su publicación en otro lugar. Si los editores comprueban que no es así, el manuscrito se retirará y no se seguirá considerando.

Al enviar un manuscrito, los autores deben indicar si ha sido considerado previamente para su publicación en otra revista de Physical Review. En caso afirmativo, los autores deberán indicar el número de código asignado anteriormente al manuscrito.

Encuesta de opciones múltiples

El factor de impacto (FI) o factor de impacto de revista (FIC) de una revista académica es un índice cienciométrico calculado por Clarivate que refleja el número medio anual de citas de los artículos publicados en los dos últimos años en una revista determinada, según la indexación de la Web of Science de Clarivate. Como métrica a nivel de revista, se utiliza con frecuencia como indicador de la importancia relativa de una revista dentro de su campo; a las revistas con valores más altos de factor de impacto se les atribuye la condición de ser más importantes, o tener más prestigio en sus respectivos campos, que aquellas con valores más bajos. Aunque es utilizado con frecuencia por universidades y organismos de financiación para decidir sobre promociones y propuestas de investigación, ha sido objeto de ataques por distorsionar las buenas prácticas científicas[1][2][3].

  Gestión y tracking de envíos transaccionales y de email marketing desde Wordpress

El factor de impacto fue ideado por Eugene Garfield, fundador del Instituto de Información Científica (ISI) de Filadelfia. Los factores de impacto comenzaron a calcularse anualmente a partir de 1975 para las revistas incluidas en el Journal Citation Reports (JCR). ISI fue adquirido por Thomson Scientific & Healthcare en 1992,[4] y pasó a denominarse Thomson ISI. En 2018, Thomson-Reuters escindió y vendió ISI a Onex Corporation y Baring Private Equity Asia[5], que fundaron una nueva corporación, Clarivate, que ahora es la editora del JCR[6].